(navigation image)
Home American Libraries | Canadian Libraries | Universal Library | Community Texts | Project Gutenberg | Children's Library | Biodiversity Heritage Library | Additional Collections
Search: Advanced Search
Anonymous User (login or join us)
Upload
See other formats

Full text of "Le Scienze, n. 443"

La capacità di mettere «in pausa» le funzioni vitali dell'organismo 
destinati ai trapianti. E forse il potere di arrestare i ritmi vitali entrando 



può salvare le vittime di traumi gravi e aiutare a conservare gli organi 
in uno stato di animazione sospesa è già nascosto nel nostro corpo 



di Mark B. Roth e Todd Nystul 



■ 



E DA MOLTO TEMPO CHE LA POSSIBILITÀ DI MANTENERE IL CORPO UMANO 



LOTTA CONTRO IL TEMPO 



in uno stato di animazione sospesa stimo- 
la la fantasia degli autori di fantascienza. 
Nelle loro storie, questo permette ai perso- 
naggi dì «dormire» durante i secoli neces- 
sari a compiere un viaggio interstellare o di 
sopravvivere ai cataclismi che sconvolgono 
la Terra, per risvegliarsi come se il tempo 
non fosse passato. Anche se si tratta di rac- 
conti affascinanti, le loro premesse biolo- 
giche appaiono però piuttosto improbabili. 
Nella realtà, gli esseri umani non sembrano 
in grado di alterare il ritmo biologico della 
loro esistenza. Non possiamo sospendere 
la movimentata attività delle nostre cellule 
più di quanto possiamo smettere di respi- 
rare perpiù di qualche minuto senza subire 
gravi danni agli organi vitali. 

In natura, però, vi sono numerosi esempi 
dì organismi capaci di arrestare in modo 
reversibile i propri processi vitali fonda- 
mentali, in alcuni casi per diversi anni di 
seguito. Gli scienziati chiamano questo 
fenomeno in vari modi, per esempio quie- 
scenza, toqroreo ibernazione, ma tutti que- 
sti termini indicano gradi diversi di anima- 
zione sospesa, vale a dire uno stato carat- 
terizzato da una drammatica riduzione sia 
della produzione di energia (metabolismo) 
sia del consumo energetico (attività cellu- 
lare). Per di più, gli organismi che si trova- 
no in questo stato godono di una straordi- 
naria resistenza a stress ambientali come 
condizioni estreme di temperatura, carenza 
dì ossìgeno e persino lesioni fisiche. 

Fantascienza a parte, se fosse possibi- 
le porre l'organismo umano in una simi- 



le condizione le conseguenze sarebbero 
enormi, anche solo in campo medico. Per 
esempio alcuni organi destinati al trapian- 
to - come cuore e polmoni - sopravvivono 
fuori dal corpo per non più di sei ore. Altri, 
come pancreas e reni, non resistono più di 
un giorno. Il successo dei trapianti è quindi 
legato alla velocità, e in alcuni casi è impos- 
sibile usare organi potenzialmente compa- 
tibili con il ricevente solo perché manca il 
tempo necessario a portarli a destinazione 
prima che inizino a deteriorarsi. 

Se fosse possibile collocare questi orga- 
ni così preziosi in uno stato di animazio- 
ne sospesa, se ne potrebbe conservare la 
vitalità per giorni o persino settimane. La 
tecnica potrebbe essere usata per guada- 
gnare tempo anche nel caso di vittime 
di incidenti con lesioni gravi: indurle in 
uno stato di animazione sospesa potrebbe 
ritardare il deterioramento dei loro tessuti 
mentre i medici curano le ferite. 

Recenti studi condotti sia nel nostro 
laboratorio all'Università di Washington 
sia da altri ricercatori hanno dimostrato 
che è possibile indurre sperimentalmente 
una condizione simile all'ibernazione in 
animali che non vi ricorrono naturalmen- 
te, e che questi animali, mentre sono in 
animazione sospesa, sembrano protetti 
dagli effetti tipici di un'emorragia, come 
la mancanza di ossìgeno. Questi risultati 
fanno intravedere la stimolante prospetti- 
va che sia possibile indurre lo stato dì ani- 
mazione sospesa anche negli esseri umani. 
E in effetti le tecniche sfruttate dal nostro 



In sintesi/Fermare perproteggere 



■ Motti organismi sono naturalmente capaci di rallentare o sospendere i loro processi 
vitali, entrando in uno stato che conferisce protezione da condizioni ambientali nor- 
malmente fatali, come una prolungata privazione di ossigeno. 

■ Li n sufficiente apporto dì ossigeno è una delle principali cause di danno ai tessuti e di 
morte degli organi espiantati e per le persone che subiscono un'emorragia o un'ostru- 
zione del flusso sanguigno. Ripristinare immediatamente l'apporto di ossigeno ai 
tessuti non è sempre possibile. 

■ Bloccare tutto l'ossigeno disponibile, tuttavia, può indurre alcune specie animali a 
entrare in uno stato protettivo dì animazione sospesa: una strategia che potrebbe 
essere usata nel caso di vittime di incidenti o di orga ni da trapia nta re. 

■ Lacido solfidrico, un composto prodotto naturalmente dal nostro organismo, impe- 
disce alle cellule dì utilizzare l'ossigeno e induce uno stato di animazione sospesa 
nei topi. Questa sostanza potrebbe essere un fattore di regolazione naturale della 
produzione energetica cellulare, che potrebbe essere utilizzato per indurre uno stato 
di animazione sospesa anche nell'uomo. 



gruppo per indurre questo stato nelle cavie 
e in tessuti umani suggeriscono che que- 
sta capacità sia latente in molti organismi 
grazie a un meccanismo che risale alle pri- 
missime fasi della vita sulla Terra. 

La sopravvivenza del più lento 

Gli organismi di cui è nota la capacità 
di arrestare, in parte o completamente, la 
propria attività cellulare ricorrono in gene- 
Te a questa strategia in risposta a uno stress 
ambientale, rimanendo «in pausa» finché 
non sparisce lo stress. Un seme in procinto 
di germogliare, per esempio, può restare 
dormiente nel terreno per anni finché le 
condizioni ambientali non ne favorisco- 
no la germinazione. Allo stesso modo, gli 
embrioni di una specie di gamberetto di 
mare, Artemia franciscana (più noti col 
nome popolare di «scìmmie di mare»), pos- 
sono vivere più di cinque anni senza cibo, 
acqua o ossigeno perché entrano in uno 
stato simile a quello dei semi, detto di quie- 
scenza, in cui l'attività cellulare è virtual- 
mente sospesa. Se però li si espone nuova- 
mente al loro ambiente naturale, l'acqua, 
riprendono a svilupparsi normalmente. 

Gli stati simili all'animazione sospesa 
variano da condizioni in cui la motilità 
è affettivamente arrestata - si interrompe 
qualunque movimento celJulare visibile al 
microscopio - a stati in cui l'attività cel- 
lulare prosegue, ma a un ritmo drastica- 
mente rallentato. Molti animali adulti, per 
esempio, possono ridurre in modo radicale 
e per lunghi periodi il fabbisogno nutritivo 
e di ossigeno cadendo in letargo: il respiro 
e il battito cardiaco diventano quasi imper- 
cettibili, la temperatura corporea precipita 
a livelli prossimi al congelamento e le cel- 
lule consumano pochissima energìa. Ogni 
anno, gli scoiattoli dì terra e dozzine di 
altre specie di mammiferi trascorrono in 
questa condizione i freddi mesi invernali, 
mentre altri animali, tra cui anche alcune 
specie di rane, salamandre e pesci, durante 
i caldi mesi estivi trovano rifugio in uno 
stato simile, chiamato «estivazione». 

La capacità di sopravvivere anche a 
prolungati periodi di mancanza di ossi- 
geno, che questi organismi acquisiscono 
riducendo drammaticamente il fabbiso- 
gno energetico e la produzione di energia, 
offre un contrasto stridente con quello che 



È 

? 
a 

E 

t 
È 
E 



Gli organi espiantati divengono 
vulnerabili al danno ischemico non 
appena sono dìsconnessì dal flusso 
sanguigno del donatore. Sebbene siano 
perfusi con una soluzione fredda di 
conservante chimico e raffreddati durante 
il trasporto, se passa troppo tempo prima 
del trapianto non saranno più funzionali. 
Questa finestra dì utilità è detta «tempo 
di ischemia fredda clinicamente 
accettabile». Secondo lo United Network 
for Organ Sharing, nei soli Stati Uniti 
l'anno scorso sono rimasti inutilizzati 
3216 organi donati, diverse centinaia dei 
quali perché non si è riusciti a individuare 
o a raggiungere tempestivamente un 
ricevente compatibile. 




è lo stato normale degli esseri umani. La 
nostra specie è completamente dipendente 
da un regolare apporto di ossigeno, di cui 
le nostre cellule hanno bisogno per man- 
tenere una costante produzione energeti- 
ca. Quando i livelli di ossigeno nei nostri 
tessuti scendono sotto un preciso valore, le 
cellule subiscono un danno ischemico che 
porta alla morte del tessuto. Perciò l'ische- 
mia è spesso la causa della mortalità in 
seguito a episodi di infarto del miocardio e 
di ictus, o per altri tipi di trauma fisico che 
privano i tessuti dell'apporto sanguigno, e 
di conseguenza anche di ossigeno, anche 
solo per un breve lasso di tempo. 

Alcuni degli eventi molecolari che pro- 
vocano il danno tissutale nell'ischemia 
non sono ancora del tutto chiariti, ma gli 



scienziati concordano sul principio che 
la perdita della capacità dì alimentare le 
attività essenziali necessarie per I'auto- 
mantenimento da parte rielle cellule abbia 
un ruolo di primo piano. La maggior par- 
te dell'energia che consumano proviene 
da molecole di adenosintrifosfato (ATP), 
prodotte dai mitocondri cellulari durante 
un processo aerobio obbligato, la «fosfo- 
rilazione ossidativa». Quando il livello rii 
ossigeno diminuisce, la fosfori] azione ossi- 
dativa rallenta e la concentrazione di ATP 
decresce. Poiché, di norma, le molecole dì 
ATP sono consumate dalla cellula nel giro 
dì pochi secondi, si presume che il danno 
ischemico si manifesti quando le cellule 
prive di una quantità sufficiente di ossige- 
no finiscono semplicemente il carburante. 



IL TESSUTO DEL CERVELLO di scoiattoli anici in cui è stata inserita una sonda mostra l'effetto protettivo 
dall'animazione sospesa naturale. In quelli in ibernazione [a sinistra] il fora della sonda è piccolo (mezzo 
m il I i metra ) e non è vi s i bil e altra da nn o. N egl i a n im a li non in i bem azion e ( o destra j I a m assi ccia 
morte cellul are intom o a II a ferita ha I asciato un vistoso f o ro e i re ori dato d a e el lu le del s istem a i m m u n ita rio . 



Il danno può peggiorare quando pro- 
cessi cellulari meno esigenti in termini 
di richieste energetiche, ma altrettanto 
indispensabili, vanno avanti gettando nel 
caos il complesso dei meccanismi cellulari. 
Infine, anche la fosforilazìone ossidativa 
può nuocere alla cellula. Quando i livelli di 
ossigeno scendono sotto una concentrazio- 
ne ottimale, la tbsforil azione diventa meno 
efficiente e può liberare prematuramente 
energia sotto forma di radicali liberi. Questi 
sottoprodotti sono diventati famosi perché 
inducono invecchiamento, dato che pos- 
sono danneggiare il DNA e altre strutture 
cellulari. Durante l'ischemia, i loro effetti 
ostacolano ulteriormente la capacità della 
cellula, già priva di ossigeno, di portare a 
termine funzioni essenziali. 

Di conseguenza, l'obiettivo della riani- 
mazione cardiopolmonare (CPR) e di altri 
approcci volti a prevenire il danno ische- 
mico nelle vìttime di ferite traumatiche è 
quello di ripristinare il flusso ematico ai 




42 LE SCIENZE 



442/giugno200S 



www.lescienie.it 



LE SCIENZE 43 



tessuti il più rapidamente possibile. In con- 
siderazione delle rigide richieste di ossige- 
no da parte delle nostre cellule, sembrereb- 
be l'unica strategia possibile. Ma abbiamo 
osservato che la drammatica riduzione 
dell'attività cellulare negli animali che si 
trovano in condizioni simili all'animazione 
sospesa rende straordinariamente resistenti 
all'ischemia durante la privazione di ossi- 
geno. Sospettando che indurre un'analoga 
condizione nell'uomo consentirebbe anche 
alle persone di evitare il danno ischemi- 
co in caso di carenza di ossigeno, abbia- 
mo iniziato una serie di ricerche mirate a 
comprendere meglio il meccanismo che 
consente agli organismi di «spegnersi» in 
risposta alla mancanza di ossigeno. 

La lezione di C, etega n$ 

Abbiamo studiato l'animazione sospesa 
in diversi organismi, tra cui il nematode 
Caenorhabditìs elegans, che può entrare in 
questo stato in qualunque fase della vita 
se è posto in condizioni di anossia - un'at- 
mosfera con un contenuto di ossigeno 
estremamente basso, attorno allo 0,001 per 
cento - restandovi per 24 ore o più. 

Quando il flusso ematico verso un 
tessuto umano si interrompe a causa di 
un'emorragìa o di un'ostruzione vasco- 
lare, è probabile che le concentrazioni di 
ossigeno non scendano mai a livelli così 
bassi da rendere la regione completamente 
a n ossi e a. L'ossigeno residuo presente nel 
sangue che resta e nel tessuto stesso può 
comunque consentire lo svolgersi delle 
reazioni della fosforilazìone ossidati va, 
seppure a bassi regimi. Tuttavia, la pro- 
duzione di ATP non sarebbe sufficiente a 
sostenere il normale tasso di attività cel- 
lulare, e la produzione di radicali liberi 
dannosi aumenterebbe. 

Per riprodurre le condizioni ischemiche 
nell'essere umano si espongono embrioni 
di C. elegans in via di sviluppo a condi- 
zioni di ipossia - cioè a concentrazioni di 
ossigeno comprese tra lo 0,01 e lo 0,1 per 
cento, una quantità molto inferiore al 21 
per cento che è la normale percentuale del 
gas nell'aria che respiriamo, ma legger- 
mente superiore all'anossia vera e propria. 
Posti in condizioni di ipossia, gli embrioni 
non entrano in animazione sospesa (come 
farebbero se fossero forzati in una com- 
pleta anossia), ma cercano di proseguire 
l'embriogenesi e muoiono dopo 24 ore. 



UNA VIA DI MEZZO LETALE 




NELLA MAGGIOR PARTE DEGÙ ORGANISMI, livelli normali di ossigeno favoriscono l'efficiente produzione di 
e n erg i a e I a f u nzion a I it à ce I ìu I a re . Gì i a utori d ì qu esto a rtico lo, così com e a Itrì gru ppi d i ricerca, ha n no 
però scoperto che livelli di ossigeno estremamente bassi (anossia] possono indurre le cellule a entrare 
in uno stato protettiva di animazione sospesa, in cui smettono quasi completamente di produrre odi 
consumare energia. Quando i livelli di ossigena si assestano su valori intermedi (ipossia], le cellule 
cercano invece di continuare a funzionare normalmente, ma l'insufficiente apporto del gas rende la loro 
attività inefficiente e addirittura autodistruttiva. Dì conseguenza, tessuti privati di ossigeno possono 
essere recuperati ripristinando ì loro normali livelli dì ossigeno, e forse anche bloccando quello residuo. 



Incrementando solo di poco la con- 
centrazione di ossigeno nell'atmosfera 
che circonda gli embrioni, fino allo 0,5 
per cento, lo sviluppo prosegue invece 
normalmente. Di conseguenza, anche se i 
nematodi sono in grado di sopravvivere in 
condizioni di anossia rifugiandosi in uno 
stato di animazione sospesa, e si sviluppa- 
no normalmente in presenza di concentra- 
zioni di ossigeno pari allo 0,5 per cento, 
l'intervallo di concentrazione compreso 
tra questi due estremi risulta loro letale. 

Nelle nostre ricerche con C. elegans 
abbiamo anche dimostrato che il ricorso 
degli embrioni all'animazione sospesa in 
condizioni dì anossia non è un risultato 
passivo derivante dall'esaurimento del- 
la disponibilità di ossigeno, ma sembra 
piuttosto un meccanismo intenzionale. 
Abbiamo identificato due geni, attivi in 
anossia, ma non in ipossia, che appaiono 



GLI AUTORI 



essenziali per arrestare il ciclo cellulare 
degli embrioni. Gli embrioni privi di questi 
geni non riescono a sospendere la divisio- 
ne cellulare quando vengono esposti a una 
condizione di anossia. 

Questi risultati suggeriscono che è 
possibile evitare il danno ischemico non 
solo aumentando la quantità di ossige- 
no a disposizione delle cellule, ma anche 
riducendola. Questo sembra contraddire 
l'intera esperienza clinica, ma ha profonde 
conseguenze per la conservazione dei tes- 
suti umani: mantenere in uno stato di ade- 
guata ossigenazione un organo destinato 
al trapianto, o fornire abbastanza ossigeno 
ai tessuti danneggiati delle vittime dì un 
incidente è difficile; si potrebbe, invece, 
diminuire l'ossigeno a loro disposizione. 

Un metodo efficace per ridurre l'acces- 
so di una cellula all'ossigeno è aggiungere 
un gas analogo: una sostanza che somiglia 



MARK B. RUTH eTODD G. NYSTUL hanno iniziato a studiare i meccanismi cellulari e gli effetti 
protettivi dell'animazione sospesa quando Nystulera studente nel laboratorio di Roth, al Fred 
Hutchinson Cancer Center dell'Università dì Washington, Attualmente, Roth si occupa di pro- 
cessi cellulari come l'espressione genica e la specializzazione funzionale cellulare, mentre 
Nystulè post-doc alla Camegie Institution di Washington D.C., dove studia la regolazione delle 
cellule staminali nella drosofila. 



44 LE SCIENZE 



442/giugno2005 



Il ricorso allo stato di animazione sospesa 
sembra essere un meccanismo intenzionale 




all'ossigeno a livello molecolare, e dunque 
può formare un legame chimico con mol- 
ti degli stessi siti cellulari cui esso si lega, 
ma che non si comporta alio stesso modo 
dal punto di vista chimico. Il monossido 
dì carbonio, per esempio, può competere 
con l'ossigeno per quanto riguarda il lega- 
me con la citocromo e ossidasi, o COX, un 
enzima che fa parte dell'apparato di fosfo- 
riiazione ossidativa all'interno della cellula, 
e che normalmente sì lega all'ossìgeno; ma 
il monossido di carbonio in forma legata 
non può essere usato per produrre ATP. 

Per questa ragione, ci siamo chiesti se 
era possìbile proteggere embrioni di C. ele- 
gans dal danno ischemico a concentrazioni 
intermedie di ossigeno aggiungendo con- 
temporaneamente monossido di carbonio 
alla loro atmosfera ipossica: avremmo così 
simulato efficacemente l 'anossia bloccan- 
do l'esigua quantità di ossigeno rimasto 
a disposizione degli embrioni. In effetti, 
abbiamo scoperto che in tali condizioni gli 
embrioni entravano in animazione sospesa 
evitando gli effetti letali dell'ischemia. 

Nel 2003 questi incoraggianti risultati 
ci hanno indotto a verificare ulteriormente 
il concetto. Studi precedenti su animali di 
dimensioni maggiori, e stimolanti reso- 
conti su come alcune vittime di incidenti 



fossero riuscite a sopravvivere in presenza 
di basse concentrazioni di ossigeno ci han- 
no fatto supporre che il meccanismo che 
faceva rivivere i nostri vermetti potrebbe 
esistere anche in organismi più complessi. 

Una pausa protettiva 

Una notevole mole di ricerche su model- 
li animali avvalora l'idea che la riduzione 
dell'ossigeno disponibile può prevenire il 
danno tissutale persino nei mammiferi più 
grandi. Quando gli animali vanno sponta- 
neamente in ibernazione, per esempio, sem- 
bra che la sospensione dei processi vitali li 
protegga dai danni. Esperimenti condotti 
da Kelly Drew e dai suoi colleghi dell'lnsti- 
tute of Arctic Biology dell'Università del- 
l'Alaska a Fairbanks hanno dimostrato che 
punzecchiando il cervello di alcuni scoiat- 
toli attici in ibernazione con microscopiche 
sonde tutto o quasi tutto il tessuto cerebrale 
sopravviveva senza danno. Al contrario, lo 
stesso tipo di danno inflitto a scoiattoli che 
non erano in ibernazione provocava un 
rapido deterioramento dei tessuti [si vedano 
le foto in basso ap.43}. 

Queste prove sperimentali hanno spinto 
vari ricercatori a cercare di provocare uno 
stato simile all'ibernazione in animali che 



UNA CAPSULA DI VETRO sigillata è stata usata per 
somministrare dosi non letali di acido solfidrico 
[HjS] a topi come quello qui a fianco. Al termi ne 
del test, il grado e la velocità dì riduzione della 
temperatura corporea e del ritmo metabolico degli 
animali erano correlati con la concentrazione 
di H jS nella capsula, avvalorando l'ipotesi che il 
gas provochi uno stato di animazione sospesa 
simile all'ibernazione naturale in un mammifero 
che normalmente non cade in letargo. 

di solito non cadono in letargo per vedere 
se si possa raggiungere un rallentamento 
dell'attività cellulare senza provocare dan- 
ni, e se tale rallentamento possa protegge- 
re i tessuti per un tempo sufficientemente 
lungo da consentire di riparare una lesione. 
PeterSafare i suoi collaboratori dell'Uni- 
versità di Pittsburgh hanno lavorato per 
quasi vent'anni sui cani per perfezionare 
un protocollo iti grado di indurre uno stato 
di animazione sospesa. Lo scorso anno il 
gruppo di Safar ha descrìtto i più recenti 
risultati ottenuti dal suo team. Per provo- 
care uno stato di animazione sospesa, in 
ciascuno dei 14 cani usati nei test è stato 
indotto un arresto cardiaco; successiva- 
mente, il sangue è stato drenato dal corpo 
e gli animali sono stati nuovamente perfusi 
con una soluzione salina fredda. Rispetto 
al sangue, la soluzione salina ha una capa- 
cità molto inferiore di trasportare ossigeno, 
per cui la procedura riduce in modo dram- 
matico la quantità di ossigeno presente nei 
tessuti. Dopo questa operazione, gli anima- 
li versavano in uno stato di incoscienza ed 
erano privi di battito cardiaco. 

Dopo aver trascorso un'ora in uno 
stato di animazione sospesa, tutti i cani 
sono stati rianimati mediante riperfusio- 
ne ematica. Settantadue ore più tardi gli 
animali erano ancora vivi, e nessuno di 
loro mostrava alcun effetto funzionale o 
neurologico avverso dovuto al tempo tra- 
scorso in condizioni vitali sospese. 

Poiché la fisiologia dei cani è assai simile 
a quella degli esseri umani, queste ricerche 
hanno provocato speculazioni entusiasti- 
che intorno all'ipotesi di perfezionare que- 
ste tecniche e sperimentarle in pronto soc- 



www.lescienze.it 



LESCIENZE 45 



Il trattamento ha trasformato i topi 
in animali a sangue freddo: come nell'ibernazione 



corso. Benché questo metodo sia, in teoria, 
promettente, il dissanguamento è però una 
procedura drastica e non priva di compli- 
cazioni. H nostro gruppo sta cercando di 
mettere a punto strategie meno invasive per 
privare temporaneamente dell'ossigeno le 
cellule viventi. In tessuti umani dissangua- 
ti, come un organo espiantato, si potrebbe 
indurre l'animazione sospesa mettendo 
l'organo in un contenitore a tenuta stagna 
e perfondendo il tessuto con monossido 
di carbonio, come abbiamo fatto con gli 
embrioni di C elegans. Una volta pronti 
a reimpiantare l'organo donato, i medici 
dovrebbero solo riperfondervi del sangue 
per ripristinarne il contenuto di ossigeno. 
Abbiamo sperimentato questa tecnica per 
preservare campioni di tessuto umani dal 
deterioramento cellulare fisiologico, e rite- 
niamo che questo approccio possa prolun- 
gare in modo significativo la vitalità degli 
organi umani destinati al trapianto. 

Non è diffìcile invertire gli effetti del 
monossido di carbonio negli organi espian- 
tati, anche se è probabile che un'analoga 
procedura non sia applicabile a organismi 
viventi in cui la circolazione sanguigna 
fluisce attivamente in tutto il corpo. Poiché 
le molecole dì monossido di carbonio si 
legano con alta affinità agli eritrociti negli 
stessi siti in cui normalmente si lega l'os- 
sìgeno, l'uso di questo gas sulle vittime 
di ira umi è impraticabile, ficco perche 
nel nostro gruppo stiamo sperimentando 
anche altri analoghi dell'ossigeno. 

La maggior parte delle sostanze che 
abbiamo testato, come il monossido di car- 
bonio, sono considerate velenose per l'uo- 
mo proprio perché sono in grado di Impe- 
dire alle cellule di usare l'ossigeno. Sacche 
di acido solfìdrico (H 2 S), per esempio, sono 
letali per i lavoratori in molti ambienti 
industriali. Per questa ragione, gli studi 
sulla sicurezza sul lavoro hanno stabilito 
quali sono i livelli letali di acido solfìdrico, 
per lo più mediante esperimenti sui roditori. 
Queste ricerche sono state un utile punto di 
partenza quando abbiamo iniziato a veri- 
ficare quali erano le dosi non letali di H 2 S 
sui topi, per vedere se questo gas poteva 



indurre un'animazione sospesa reversibile, 
In una capsula sigillata, abbiamo espo- 
sto i topi ad atmosfere contenenti quantità 
di H 2 S che raggiungevano le 80 parti per 
milione. A queste concentrazioni, abbia- 
mo osservato che nei primi cinque minuti 
la loro emissione di anidride carbonica si 
riduceva di tre volte, accompagnata da 
una diminuzione della temperatura corpo- 
rea interna. Gli animali hanno smesso di 
muoversi e sembravano aver perso i sensi. 
Durante le ore trascorse in questo ambien- 
te il metabolismo basale degli animali ha 
continuato a scendere, come rivelava la 
registrazione della quantità di anidride 
carbonica emessa, per raggiungere infine 
livelli dieci volte inferiori a quelli iniziali. 
Il ritmo respiratorio ha iniziato a rallen- 
tare passando dai regolari 1 20 respiri al 
minuto fino a meno di dieci. La tempera- 
tura interna ha continuato a precipitare, 
scendendo dagli abituali 37 gradi fino a 
valori superiori di circa due gradi a quella 
dell'aria, qualunque essa fosse. Siamo riu- 
sciti a portare la loro temperatura corporea 
media fino a 15 gradi semplicemente raf- 
freddando la capsula in cui si trovavano. 
Negli animali che vanno spontaneamente 
in ibernazione non è insolito osservare 
un'analoga oscillazione della temperatura 
corporea, che si modifica in relazione alla 
temperatura ambientale. 

In effetti, il trattamento con acido sol- 
fidrico ha trasformato i nostri topi da ani- 
mali a sangue caldo in animali a sangue 
freddo: proprio quel che accade durante 
l'ibernazione. Abbiamo mantenuto ì topi 
in tale condizione per sei ore, e dopo aver- 
li rianimati li abbiamo sottoposti a una 
serie di test per vedere se l'esperienza ave- 
va prodotto qualche effetto funzionale o 
comportamentale avverso: tutti i topi sono 
apparsi perfettamente normali. 

Dal topo all'uomo 

Attualmente stiamo proseguendo que- 
sto filone di ricerche in animali di maggiori 
dimensioni, e riteniamo che l'acido solfì- 
drico potrebbe essere la chiave che ci con- 



sentirà di indurre uno stato simile all'ani- 
mazione sospesa - senza provocare effetti 
collaterali - anche in organismi che di 
solito non vanno in ibernazione. Sebbene 
l'acido solfìdrico sia considerato un vele- 
no, non dobbiamo dimenticare che è anche 
prodotto in modo naturale dal nostro cor- 
po. Infatti, negli organismi a respirazione 
aerobia l'H 2 S potrebbe avere un ruolo 
specifico, e non riconosciuto, nella regola- 
zione della produzione di energia da parte 
delle cellule, poiché questo gas svolgeva 
nel metabolismo degli organismi il ruolo 
molecolare che oggi compete all'ossigeno 
quando ancora il nostro pianeta era giova- 
ne e l'ossigeno scarso (si veda il box nella 
pagina a fronte), Tuttavia, prima di poter 
studiare la animazione sospesa nell'esse- 
re umano dobbiamo ancora rispondere a 
molte altre domande, 

L'incognita maggiore riguarda la possi- 
bilità che l'uomo riesca davvero a entrare 
in una condizione di animazione sospesa. 
Prove convincenti indicano che talvolta gli 
esseri umani sono in grado di sopporta- 
re diverse ore di anossia. C'è un esempio 
notevole che risale a qualche anno fa. Una 
sciatrice norvegese fu salvata dopo un 
incìdente in seguito al quale era rimasta 
immersa nell'acqua gelata per più di un'ora. 
Quando fu trovata era clinicamente morta: 
non respirava, il battito cardiaco era assen- 
te e la temperatura corporea basale era di 
14 gradi. Ma, a dispetto delle nove ore di 
rianimazione subite, i medici garantiscono 
che da allora la donna è andata incontro a 
un «eccellente» recupero. 

Beat H. Walpot dell'Università di 
Berna, in Svizzera, ha studiato 32 casi 
di ipotermia grave in cui la temperatura 
corporea era scesa fra i 17 e i 25 gradi e 
molte delle vittime al momento del loro 
ritrovamento non davano alcun segno di 
vita: quasi la metà dei soggetti conside- 
rati si era ripresa dal trauma senza mani- 
festare danni a lungo termine. Poiché 
queste persone non stavano respirando, 
i livelli di ossigeno nei loro tessuti erano 
senza dubbio molto bassi ; ciò suggerisce 
che, dì quando in quando, anche le cellu- 



46 LE SCIENZE 



442/gìugno200S 



IN CERCA DI EQUILIBRIO 



Le prime forme dì vita unicellulari apparse sulla Terra hanno 
iniziato a evolversi circa quattro miliardi di anni fa, in 
un'atmosfera quasi completamente priva di ossigeno ma 
incredibilmente ricca di molecole solforate, come l'acido solfidrico 
(HjS). Questi organismi primordiali sono riusciti a produrre un 
rifornimento personale di energia usando l'acido solfidrico 
praticamente nello stesso modo in cui la maggior parte delle forme 
di vita odierne usa l'ossigeno durante la fosfo ri I azione ossidati va. 
In effetti, molti dei componenti fondamentali delle reazioni che 
costituiscono la fosfo ri la zio ne ossidativa sembrano essersi evolut 
da questo primitivo meccanismo di respirazione basato sullo zolfo. 
La citocromo e ossidasi, per esempio, il componente dell'apparato 
di fosforilazione ossidativa che normalmente si lega all'ossigeno, 
somiglia moltissimo all'analogo componente presente nella 
respirazione basata sullo zolfo, e può legarsi all'acido solfidrico. 

È probabile che il metabolismo dell'ossigeno e quello dello zolfo 
abbiano in comune ben più che una semplice relazione ancestrale. 
Anche oggi, infatti, l'acido solfìdrico è prodotto naturalmente dal 
nostro corpo, il che può sembrare assurdo se pensiamo al fatto 
che quando H 2 S si lega alla citocromo e ossidasi impedisce 
all'ossigeno di formare lo stesso legame. Può darsi però che 
quando gli organismi primordiali iniziarono la transizione che li 
avrebbe portati a respirare ossigeno, l'acido solfidrico abbia 
assunto un ruolo nuovo, diventando un 
antagonista fondamentale di questo gas. 

Le due molecole sono altamente 
reattive tra loro, e lo scambio costante di 
elettroni è un processo fondamentale per 
tutte le forme di vita: alcuni atomi cedono 
i propri elettroni in un processo di 
«ossidazione», mentre altri acquistano 
elettroni «riducendo» la dotazione 
elettronica di altre molecole. Questi 
processi di ossido -riduzione, o «redox», 
alimentano la produzione energetica in 
tutti i sistemi biologici. Quando le 



le umane hanno la capacità di rallentare 
o arrestare in modo reversibile la propria 
attività in risposta a uno stress. Ma in 
quali occasioni? Quali sono le variabi- 
li che consentono ad alcune persone dì 
sopravvivere in condizioni così estreme, 
mentre altri non ce la fanno? 

Se riusciremo a comprendere i legami 
che intercorrono tra lo stato dì animazione 
sospesa naturale e indotto negli animali e 
la capacità, ancora in gran parte inspiega- 
ta, che hanno certi esseri umani di soprav- 
vìvere in situazioni analoghe, potremmo 
scoprire che la capacità di cadere in una 
condizione protettiva di animazione sospe- 
sa è già insita in ciascuno di noi. E 




molecole che si riducono/ossidano a vicenda sono presenti in 
rapporto equilibrato, si dice che la cellula è in uno stato redox. Se 
un ambiente è troppo ossidante o troppo riducente, le reazioni 
redox non possono verificarsi: per questo molti organismi 
cercando ambienti il cui potenziale redox è massimo. 

Nelle acque oceaniche calme, per esempio, dove i gas si 
mescolano prevalentemente per diffusione, l'ossigeno prodotto 
dagli organismi fotosintetici vicini alla superficie sprofonda verso il 
basso durante il giorno e risale la notte, mentre H 2 S si diffonde 
costantemente dal basso come prodotto finale del metabolismo di 
organismi che vivono del materiale in decadimento sul fondo 
marino. La competizione tra questi due gas crea un vertice 
chimicamente instabile dove gli elettroni sono scambiati a un ritmo 
alla mia nte. Questo gradiente è l'habitat prescelto da una serie di 
microrganismi la cui densità è tale da forma re grandi «tappeti» che 
salgono e scendono con il ciclo quotidiano ossigeno/H 2 S. 

Forse il nostra corpo e quello di altre creature a respirazione 
aerobia è come questi tappeti di batteri in cerca di un equilibrio 
redox. E poiché non viviamo vicino a una fonte di H ? S, lo produciamo 
noi, in modo che le cellule restino nell'ambiente chimicamente 
instabile in cui si sono evolute. Lipotesi è che la capacità dell'acido 
solfidrico di legarsi alla citocromo e ossidasi l'abbia incluso in un 
programma cellulare intrinseco per rallentare o arrestare 

naturalmente la fosforilazione ossidativa 
in presenza di ossigeno. Questo 
meccanismo protettivo sarebbe utile 
quando le cellule rischiano di danneggiarsi 
nel tentativo dì prò durre e usare energia in 
condizioni di a nossia o qua ndo 
un'overdose di ossigeno rischia di indurre i 
generatori cellulari a un superlavoro, col 
pericolo di «friggere» le cellule. Se l'acido 
solfidrico è l'innesco naturale di un arresto 
protettivo delle funzioni biologiche, si 
spiega il successo ottenuto usa ndolo per 
indurre l'animazione sospesa. 



| LA GROTTA LECHUGUILLA, nel New Mexico, 
i è uno degli ambienti in cui i sotfobatteri, che 
£ forse somigliano alle forme primordiali di vita 



- £ sulla Terra, riescono ancora a prosperare. 



PERAPPROFONDIRE 



FENCHEL T. e FINLAY EU., Ecotogy and Evolution in Anoxic Worlds, Oxford University Press, 
1995. 

LANE ti.,0xygen: me Molecule That Mode the World, Oxford University Press, 2004. 

NYSTULT.G. e ROTH MB., Carbon Monoxide-induced Suspended Anìrnation Protects against 
Hypoxìc Damage in Caenorriabdìtis elegans, in «Proceedings of the National Academy of 
Sciences», Voi. 101, n. 24, pp. 9133-9136. 15 giugno 2004. 

BLACKSTONE E., MQRRIS0N M. e ROTH M.B., HydrogenSutfide Induces a Suspended Animation- 
like State in Mice, in «Science», Voi. 308, p. 518, 22 aprile 2005. 



www.lescienie.it 



LESCIENZE 47 




Le basi biologiche 

dell'aritmetica 

elementare 



Nell'uomo (ma anche negli altri primati] esistono 
neuroni dedicati ai numeri, che forniscono 
alla nostra specie un concetto intuitivo di numero 
acquisito nel corso dell'evoluzione, su cui poggia 
la costruzione culturale della matematica 

diStanislasDehaene 



www.lescienze.it 



LESCIENZE 49 




siste una verità matematica assoluta? Come fa il cervello umano, le cui capacità sono finite e il 
funzionamento fallibile, ad avere accesso a un sapere matematico universale? Molti matematici 
pensano che gli oggetti matematici abbiano un'esistenza autonoma e indipendente dalla mente 
umana. Il francese Charles Hermite (1822-1901), per esempio, scriveva: «I numeri e le funzioni non 
sono il prodotto arbitrario del nostro spìrito. Esistono indipendentemente da noi, con lo stesso carat- 
tere dì necessità degli oggetti della realtà obiettiva. Noi li scopriamo e li studiamo esattamente come 
fanno i fisici, i chimici e gli zoologi». 



Per un neurobiologo, questo è un punto di vista diffìcilmente 
sostenibile. Qual è la misteriosa materia di cui sarebbe costituita 
la realtà matematica? Che cosa potrebbe mai essere, se non il 
prodotto di una rete complessa e interconnessa di neuroni nel 
nostro cervello? Questa prospettiva biologica, tuttavia, lascia 
aperti importanti interrogativi. Come fa un cervello umano limi- 
tato e soggetto a errore, prodotto dalla selezione naturale, ad 
accedere a una verità matematica? E soprattutto, da dove provie- 
ne «l 'irragionevole efficacia» - come la chiamava Eugene Wigner 
- della matematica? È la questione centrale che turbò Albert 
Einstein: «Com'è possibile che le matematiche, pur prodotte dal 
pensiero umano indipendentemente da qualsiasi esperienza, si 
adattino così perfettamente agli oggetti della realtà fìsica?». 

Gli esperimenti sulla «cognizione numerica» condotti in diver- 
si laboratori cercano di fare un po' di luce sull'origine degli 
oggetti matematici. Ma, a dispetto dei recenti progressi nel cam- 
po della psicologia e del neuroimaging, esaminare le basi cere- 
brali delle parti più avanzate della matematica è ancora difficile. 
Per questa ragione, cerchiamo di studiare il supporto cerebrale di 
uno dei fondamenti della matematica, il concetto di numero. Una 
delle scoperte più interessanti è che nel cervello dei primati esi- 
stono alcuni neuroni che sono dedicati ai numeri e che assicura- 
no la rappresentazione di quantità approssimate. L'evoluzione ha 
quindi impresso nel nostro cervello il concetto di numero già da 
milioni di anni: ma se il concetto di numero approssimato è 
universale, quello di calcolo esatto non lo è. In effetti, vedremo 
che lo studio dei Munduruku - un popolo dell'Amazzonia il cui 
vocabolario contiene pochissime parole per designare i numeri e 
che non ha mai ricevuto insegnamenti di matematica - permette 
di discriminare la parte universale dell'aritmetica e quella acqui- 
sita culturalmente. 

Perché sette è maggiore dì tre 

Consideriamo una delle capacità aritmetiche più elementari: 
dire qual è il maggiore tra due numeri. Vari gruppi di ricerca 
hanno mostrato che questa operazione elementare può essere 
eseguita sia da cavie di laboratorio sia da animali allo stato natu- 
rale: tra due mucchietti di mele, i macachi scelgono naturalmen- 
te quello che ne contiene di più. Elizabeth Brannon e Herbert 
Terrace, della Columbia University, hanno insegnato ad alcuni 
macachi a classificare delle carte in base al numero di oggetti che 
vi sono raffigurati. Dopo essere state addestrate con carte che 
presentavano da uno a quattro oggetti, queste scimmie hanno 
spontaneamente generalizzato le loro competenze a cifre più alte, 
riuscendo a classificare da cinque a nove oggetti. Le loro presta- 
zioni indicano che questi animali hanno una competenza ele- 
mentare innata a percepire e confrontare i numeri. 



Nella maggior parte degli esperimenti, le prestazioni degli ani- 
mali migliorano quando aumenta la differenza tra i due numeri 
da confrontare (effetto distanza) e quando i numeri sono più 
piccoli (effetto dimensione). Ma è possibile assimilare la capacità 
degli animali di confrontare quantità alle capacità aritmetiche 
umane? Insieme ad altri gruppi di ricerca, abbiamo dimostrato 
che gli stessi effetti di distanza e di dimensione si manifestano 
quando si chiede a una persona di confrontare due numeri in cifre 
arabe: chiedendo qual è il maggiore tra due numeri, i soggetti 
sono più lenti quando le cifre sono 8 e 9 rispetto a quando sono 
5 e 9. Lo stesso avviene quando si chiede di confrontare numeri 
a due cifre: l'effetto distanza è lo stesso di quando si mostrano 
due gruppi di oggetti. 

Recentemente, con Philippe Pinel, abbiamo studiato le basi 
neurologiche dell'effetto distanza usando la risonanza magnetica 
funzionale nel momento del confronto. Abbiamo cosi dimostrato 
che l'attivazione di un'area cerebrale nota come solco intraparie- 
tale (destro e sinistro) dipende dall'effetto distanza: l'attivazione 
diminuisce via via che aumenta la distanza tra i numeri da con- 
frontare. Numerosi altri esperimenti di brain imaging effettuati su 
soggetti che eseguivano calcoli suggeriscono che una parte del 
solco intraparietale (il segmento orizzontale bilaterale) abbia un 
ruolo particolare nella rappresentazione delle quantità. 

Lo studio di pazienti con una lesione in quest'area (almeno in 
quella dell'emisfero sinistro) indica la presenza di gravi deficit 
nella comprensione dei numeri e delle capacità di calcolo (un 
deficit chiamato «acalculia»). Recentemente questa regione cere- 
brale è stata messa sotto accusa anche perla discalculia infanti- 
le, un disturbo dell'apprendi mento delle capacità di calcolo che 
non è legato né a ritardo mentale né a fattori ambientali. Grazie 
alla risonanza magnetica funzionale, Nicolas Molko, della mia 

In sintesi/Ca/co// evo/uff' 



■ Se le verità matematiche hanno un'esistenza 
autonoma e un valore universale, come fa il cervello 
umano, limitata e fallibile, a comprenderle? 

■ Recenti esperimenti sia sulle scimmie sia su soggetti 
umani hanno permesso di accertare la presenza 

nei primati di popolazioni di neuroni che rispondono 
selettivamente a numeri specifici. 

■ Ma le competenze innate evolute grazie alla selezione 
naturale garantiscono la rappresentazione dei 
concetti numerici solo in forma approssimata. 

■ Nella specie umana queste rappresentazioni 
primarie sarebbero divenute matematica in seguito 
a I la selez lo ne d a 1 1 'evo I uzion e e u It u ra I e . 




équipe, ha rilevato una diminuzione di sostanza grigia nel solco 
intraparietale in bambini che presentavano discalculia nel con- 
testo di una sindrome di Tumer (una patologia genetica caratte- 
rizzata da crescita ridotta, assenza di pubertà, e un leggero deficit 
mentale, soprattutto spaziale). Questo conforta l'ipotesi secondo 
cui una buona rappresentazione delle quantità nel solco intrapa- 
rietale ha un ruolo essenziale nell'apprendimento dell'aritmetica 
da parte dei bambini. Questa area darebhe ai più piccoli una 
sorta di intuizione aritmetica, vale a dire la nozione di che cos'è 
un numero e di come si possono confrontare le quantità nume- 
riche. Quando il solco intraparietale è leso, per un'anomalia gene- 
tica o in seguito a un incidente, il senso del numero si affievolisce 
e può comparire una discalculia. 

I neuroni dei numeri 

Come fanno i numeri a essere codificati da una popolazione di 
neuroni? Recentemente Andreas Nieder e Earl Miller, del Mas- 
sachusetts Institute of Technology, hanno registrato l'attività cere- 
brale di scimmie addestrate a confrontare due insiemi di oggetti 
in base al numero di elementi, scoprendo l'esistenza di una popo- 
lazione di neuroni che codifica le quantità numeriche. Alcuni 
neuroni sono attivi in presenza di un solo oggetto, altri di due, di 
tre, di quattro, di cinque oggetti: sono «accordati» su uno, due, tre 
e così via. Vìa via che il numero cresce, le attivazioni diventano 
meno precise. Le caratteristiche di questo codice neuronale coin- 
cidono con quelle che avevamo dedotto da una rete di neuroni 
elaboratane! 1993 insieme al neurobiologo Jean-Pierre Changeux 
per modellizzare l'effetto distanza e altre caratteristiche dell'arit- 
metica approssimata nel bambino e nell'adulto. 

Nieder ha scoperto che i neuroni dei numeri sono localizzati 
nella corteccia prefrontale dorsolaterale, ma anche nei lobi parie- 
tali, nella parte più profonda del solco intraparietale e in una 
regione chiamata area intraparietale ventrale (VIP). Nella scimmia 
quest'area costituisce un omologo plausibile del segmento oriz- 
zontale del solco intraparietale che è attivo nell'uomo durante 
svariate operazioni aritmetiche. Olivier Simon, del mio gruppo dì 
lavoro, ha registrato con la risonanza magnetica funzionale l'at- 
tività del cervello durante i calcoli, scoprendo che l'attivazione 
legata al calcolo fa parte di una mappa spaziale di attivazioni del 
solco intraparietale posteriore ed è inquadrata dalle regioni asso- 
ciate ai movimenti saccadici degli occhi e all'attenzione e alla 
percezione spaziale. Abbiamo dimostrato che l'organizzazione 
anatomica di questa regione è paragonabile nell'uomo e nel 
macaco, il che rafforza l'ipotesi che i neuroni dei numeri, che nel 
macaco sono localizzati nell'area VIP, siano ira i precursori, dal 
punto di vista evolutivo, delle capacità aritmetiche umane. 

Tuttavia, per stabilire una stretta omologia interspecifica, biso- 
gna dimostrare che la corteccia intraparietale umana contiene 
popolazioni di neuroni che rispondono selettivamente, ciascuna 
a un numero specifico. Poiché non si può registrare in modo non 
invasivo l'attività di singoli neuroni nel cervello umano, Manue- 
la Piazza e io abbiamo adottato un metodo che ci permette di 
verificare in modo indiretto se nell'uomo certi neuroni sono dedi- 
cati a un numero specìfico. Abbiamo registrato con la risonanza 
magnetica funzionale l'attività cerebrale di volontari a cui pre- 
sentavamo, più volte di fila, gruppi di punti con un numero sem- 



50 LESCIENZE 



443 /luglio 2005 



www.lescienie.it 



LESCIENZE 51 




pre uguale di elementi (per esempio 1 6). Abbiamo anche cercato 
di innescare un meccanismo di «assuefazione» della popolazione 
neuronale che codificava per quel valore. Sappiamo che, nei 
macachi, l'attività di certi neuroni diminuisce quando si ripete 
più volte lo stesso stimolo; abbiamo quindi tentato di ottenere 
nell'uomo un'analoga diminuzione progressiva dell'attività dei 
neuroni numerici. Dopo un periodo di assuefazione a un dato 
numero, di tanto in tanto abbiamo presentato ai soggetti un 
numero diverso, variabile tra la metà e il doppio del numero 
originario. Le immagini hanno rivelato che solo due regioni, il 
solco intraparietale sinistro e destro, reagivano al cambiamento 
del numero e che l'aumento della loro attività era maggiore quan- 
to più differivano il vecchio e il nuovo numero. 

L'analisi dettagliata dei profili di attivazione ha mostrato che 
queste regioni si comportano come aree che contengono neuroni 
dedicati al trattamento dei numeri. Sia nell'uomo sia nella scim- 
mia i profili di risposta dipendono solamente dal numero di 
oggetti e non dalla loro forma, dalla densità o dalla disposizione 
spaziale. Questa omologia funzionale suggerisce, oltre che una 
localizzazione nella profondità del solco intraparietale, che l'uo- 
mo e il macaco siano dotati di popolazioni simili di neuroni 
intraparictati sensibili ai numeri. Questo conforta la nostra ipo- 
tesi secondo cui tutti i membri della specie umana hanno, anche 
prima dell'apprendimento dell'aritmetica, una rappresentazione 
non verbale dei numeri approssimati, acquisita nel corso del- 
l'evoluzione. 

Possiamo ora proporre uno scenario per l'acquisizione del- 



LE REGIONI CEREBRALI CHE RISPONDONO Al NO MERI nell'uomo e nel macaco 
presentano notevoli somiglianze. Nell'uomo [a sinistra), spostando 
leggermente le pieghe del solco corticale, si può osservare una regione 
profonda, nel solco intraparietale, che si attiva nel corso delle operazioni 
aritmetiche. Nel macaco (o destra: il cervello è Ingrandito in proporzione), 
i neuroni che codificano i numeri sono stati evidenziali sìa in una regione 
corrispondente al lobo parietale, sia nella regione prefrontale dorsolaterale 
[freccia rossa). L'esistenza di «neuroni dei numeri» era stata prevista 
grazie a una rete neurale artificiale che ma del lizzava alcune operazioni 
aritmetiche elementari [in basso a sinistra). La registrazione effettiva dei 
potenziali cellulari nel macaco [in basso a destra] ha mostrato che esistono 
realmente neuroni che reagiscono specificamente a un certo numero di 
oggetti [da 1 a 5). Le curve di attività di questi neuroni dedicati ai numeri 
sono molto simili a quelle ottenute con la rete neurale. Le curve diventano 
progressivamente meno precise via via che aumentano i numeri. 

l'aritmetica elementare nell'uomo. L'evoluzione ha dotato il lobo 
parietale dei primati di una rappresentazione grossolana dei 
numeri che è stata (ed è ancora) utile in molte occasioni, per 
esempio per valutare il numero dei membri del proprio gruppo. 
Questa rappresentazione primitiva dei numeri è presente anche 
nell'uomo: appare molto presto nell'infanzia, e la sua precisione, 
inizialmente mediocre, migliora nel corso del primo anno di vita. 
Essa rappresenta la base elementare su cui si fonda l'aritmetica: 
permette di stimare il numero di piccoli insiemi di oggetti, di 
confrontarli e dì valutare il risultato di operazioni elementari dì 
addizione e di sottrazione. Nel primo anno di vita questo sapere 




I MUNDURUKU sono in grado di 

effettuare correttamente calcoli 

approssimati. Mostrando due 

insiemi di biglie [n l en 2 ), che 

vengono poi messi in un barattolo 

(a), e chiedendo se la somma 

dei due insiemi è superiore o 

inferiore a un terzo insieme n 3 , 

le risposte sono spesso corrette, 

specie quando la distanza trai due 

numeri aumenta, Le prestazioni dei 

Munduruku (curvo in verde] sono 

perfettamente confrontabili con 

quelle di un campione occidentale 

(curvo in rosso). Non è così invece 

quando si tratta di eseguire calcoli 

esatti, in particolare sottrazioni. Nel 

nostro test, una sequenza animata 

mostrava alcune biglie che cadono 

in un barattolo vuoto; dopo averne 

estratte alcune, veniva chiesto 

quante ne restavano all'interno [£>). 

Se il numero di biglie era inferiore 

atre i risultati erano confrontabili 

con quelli di soggetti occidentali, 

ma al di sopra di questa quantità 

i Munduruku (in verde] non 

riuscivano a dire il numero esatto, 

contrariamente agli altri [in rosso). 



Vocabolo 
munduruku 


Significato 
approssimativo 


pugma uno 


xepxep 


due 


ebapug 


tre [da 3 a 5) 


ebadipdip 


quattro [da 3 a 8] 


pugpògbi 


unpugno,cinque(da5a 12) 


adesu 


alcuni (da 3 a 15] 


ade molti [da 7 a 1S) 



I MUNDORUKU HANNO POCHI VOCABOLI per esprimere i numeri, tuttavia 
sono perfettamente in grado di eseguire calcoli approssimati e stimare 
le quantità. 

è non verbale, ma verso i tre anni vi vengono associati dei sim- 
boli: prima le parole che esprimono i numeri e poi i simboli 
scritti delle cifre arabe. 

In che misura questi simboli culturali influiscono sulla com- 
petenza aritmetica della specie umana? Negli animali, la pre- 
stazione è imprecisa quando si superano i tre oggetti; nessun 
animale distingue IO oggetti da 11, né sa calcolare la differenza 
9 - 8. Al contrario, l'uomo esegue calcoli con precisione. Ne 
deduciamo che i nomi dei numeri e le cifre arabe sono stati fon- 
damentali per consentire il passaggio da un'aritmetica approssi- 
mativa a un'aritmetica esatta. 



Lo studio dei Munduruku 



Abbiamo avuto la fortuna di poter mettere alla prova questa 
ipotesi in una popolazione umana che non ha nomi per numeri 
grandi. Con Pierre Pica, linguista del CNRS, abbiamo studiato le 
capacità cognitive numeriche dei Munduruku, una tribù del- 
l'Amazzonìa la cui lingua è estremamente povera di vocaboli per 
esprimere 1 numeri. I Munduruku hanno un nome per i numeri 
da uno a cinque, e termini per indicare «poco» e «molto». Usando 
dei punti mostrati su un monitor, abbiamo anzitutto dimostrato 
che tutti quei vocaboli sono utilizzati per indicare quantità 
approssimative. Quando chiedevamo di quantificare un gruppo 
di punti, i Munduruku ricorrevano in modo approssimativo a una 
delle loro parole; per esempio, la parola che significa «quattro» 
era usata per indicare da tre a otto oggetti 

Tuttavia, malgrado il vocabolario limitato, gli indios che 
abbiamo studiato padroneggiavano perfettamente i numeri gran- 
dì. Sapevano dire quale dei due insiemi conteneva più punti, 
anche se il loro numero arrivava a 80, e anche se si facevano 
variare diversi parametri, per esempio la densità degli oggetti. 
Sapevano fare anche calcoli approssimati: quando si mostravano 
loro in successione due insiemi di oggetti che venivano poi col- 
locati in un barattolo, sapevano valutarne la somma e confron- 
tarla con un terzo insieme. Questi indios che vivono in capo al 
mondo, non hanno ricevuto alcuna istruzione e hanno un voca- 
bolario limitato riescono a eseguire operazioni approssimate 
altrettanto bene di un adulto occidentale istruito. 



52 LESCIENZE 



443 /luglio 2005 



www.lescienze.it 



LESCIENZE 53 



In compenso, abbiamo scoperto che i Munduraku si compor- 
tano in modo ben diverso quando si Tratta di fare calcoli esatti. 
Abbiamo chiesto loro di eseguire una sottrazione semplice come 
6-4, collocando sei oggetti in un barattolo e poi estraendone 
quattro; inoltre, siamo stati attenti che il risultato fosse sempre 0, 
1 o 2, ossia che corrispondesse a una parola esìstente nel loro 
vocabolario. In un test abbiamo chiesto di dire il risultato, in un 
altro di indicare quanti oggetti sarebbero rimasti nel barattolo: 
in entrambi i casi, la risposta era sbagliata. Se tutti i numeri era- 
no inferiori a tre (per esempio 2 - 2 o 3 - 1), riuscivano a dare il 
risultato esatto, ma gli errori si facevano tanto più frequenti 
quanto più i numeri crescevano, e arrivavano a più del 50 per 
cento delle risposte quando i numeri superavano il cinque. 

Da questo studio abbiamo dedotto che i nomi dei numeri non 
sono indispensabili per maneggiare i principali concetti aritme- 
tici (le quantità, la nozione di più grande o più piccolo, l'addizio- 
ne e la sottrazione) né per eseguire operazioni approssimative. Al 
contrario, la codifica linguistica dei numeri appare indispensabi- 
le per migliorare questa aritmetica approssimativa primitiva e per 
eseguire calcoli esatti. Se la nostra ipotesi è corretta, il codice 
verbale dei numeri e la capacità di contare sono gli utensili cul- 
turali che completano la panoplia delle strategie cognitive di cui 
disponiamo per risolvere problemi concreti. Così, padroneggiare 
una sequenza di numeri ci permette dì enumerare gli oggetti in 
modo rapido e quasi automatico. I Munduraku non sono parti- 
colarmente abili in questo compito, anche se sanno contare mol- 
to lentamente sulle dita. 

Poiché contare permette di accoppiare esattamente una certa 
quantità di oggetti e il loro corrispondente numero, verosimilmen- 
te nei bambini favorisce l'integrazione concettuale della rappre- 
sentazione dei numeri approssimati, della rappresentazione degli 
oggetti e del codice verbale. Nei paesi occidentali, verso i tre anni 
i bambini mostrano un brusco cambiamento nel trattamento dei 
numeri, nel senso che di colpo comprendono che ogni nome di 
numero si collega a una quantità precisa. Questa «cristallizzazio- 
ne» dei numeri discreti a partire da un continuo di grandezze 
approssimative non sembra verificarsi nei Munduraku. 

Verità matematiche 
e costruzione cerebrale 

Nel piccolo mondo dell'aritmetica elementare cominciamo 
quindi a trovare le basi cerebrali di alcune verità matematiche 
elementari. Come sappiamo, con certezza assoluta, che afferma- 
zioni come 1 + 1=2 oppure 6-4=2 sono vere? Le nostre ricer- 
che indicano che queste uguaglianze occupano livelli differenti in 
una gerarchia di costruzioni cerebrali e culturali. L'aritmetica più 
elementare è inscritta profondamente nel nostro cervello. Dopo 
milioni di anni di evoluzione, alcune nostre aree cerebrali si sono 
specializzate tanto bene nel l'anticipare che un oggetto più un altro 
oggetto fanno due oggetti, che anche un poppante ha accesso a 
tale «verità». Invece 6-4 = 2 non sembra una verità altrettanto 
immediata. Richiede un'integrazione tra le rappresentazioni ver- 
bali e quantitative dei numeri, e non è stabilita automaticamente; 
esistono culture che non l'hanno ancora acquisita. 

Più in generale, l'esempio dell'aritmetica suggerisce che la 
matematica sia una costruzione mentale e culturale, prodotta in 



parte dai vincoli che l'evoluzione ha fatto pesare sul cervello per 
milioni di anni e in parte dai simboli e dagli altri oggetti cultura- 
li che generazioni di matematici hanno messo in campo. Armati 
di questa definizione possiamo affrontare la questione dell'uni- 
versalità delle verità matematiche. 

Come sottolineò Kant, «la scienza matematica rappresenta 
l'esempio più luminoso di come la ragion pura può progredire 
senza l'aiuto dell'esperienza». Libere dai vìncoli dell'esperienza, 
le matematiche riflettono necessariamente la struttura universa- 
le delle nostre rappresentazioni cerebrali. Cosi, se le matematiche 
appaiono verità assolute, potrebbe essere perché sono definite 
dalla struttura preesistente delle nostre rappresentazioni. In 
quanto proprietà del cervello, le nostre rappresentazioni dello 
spazio, del tempo e dei numeri sono universali, proprio come le 
nostre modeste capacità di deduzione logica. Se partiamo da 
assiomi fondati sulle nostre più profonde intuizioni, quelle che 
condividiamo tutti, e se seguiamo le stesse regole di deduzione 
logica, non è sorprendente che arriviamo alle stesse verità. 

Le matematiche non sono una costruzione arbitraria dello spi- 
rito. Al contrario, sono profondamente vincolate dall'architettura 
del nostro cervello. Per tutta l'evoluzione e durante lo sviluppo 
cerebrale del bambino, la selezione agisce in modo che il nostro 
cervello costruisca rappresentazioni adatte al mondo esterno. Alla 
nostra scala, per esempio, il mondo è essenzialmente costituito da 
oggetti che si combinano tra loro secondo la familiare equazione 
1 + 1=2. Ciò potrebbe spiegare perché l'evoluzione abbia scritto 
questa regola aritmetica, e non altre, nel nostro cervello. 

In ultima analisi, l'irragionevole efficacia della matematica di 
cui parlava Wigner potrebbe allora spiegarsi con un darwinismo 
neuronale e mentale. Una prima generica selezione, nel corso 
dell'evoluzione delle specie, ha condotto alle rappresentazioni 
fondamentali di spazio, tempo e numero. La seconda, che sì svol- 
ge nei tempi incomparabilmente più rapidi dell'evoluzione cul- 
turale, costruisce, a partire dalle rappresentazioni mentali prima- 
rie, impalcature culturali elaborate, ma sempre selezionate in 
base alla loro coerenza interna e alla loro efficacia nel risponde- 
re a problemi concreti o astratti. Per riassumere, se le nostre mate- 
matiche sono oggi efficaci, potrebbe essere perché le matemati- 
che inefficaci di ieri sono state eliminate e rimpiazzate da altre... 
molto più funzionali. E 



L'AUTORE 



STANISLAS DEHAENE dirige l'unità Inserm di neuroimmagine 
cognitiva presso l'Ospedale Fred é rie Joliot del CEA, a Qrsay. 



PER APPROFONDIRE 



PICA P. e altri, Exact and Approssimate Aritbmetic in a Amazonian 
Indìgene Group, in «Science», Voi. 305, pp. 499-503, 2004. 

DEHAENE S. e altri, Arithmetic and the Brain, in «Cu rr. Opin, Neuro- 
biol.», Voi. 14 (2),pp. 218-224, 2004. 

DEHAEN E S. e altri, Three Parìctal CìrcuìtsforNumbcr Processing, in 
«Cognitive Neuropsychology»,Vol. 20, pp. 487-506, 2003. 

M0LK0 N. e altri, Functional and Strutturai Alterationsof the Intrapa- 
rietatSulcus in a Developmental Dyscalculia of Genette Origin, in 
«Neuron»,Vol. 40 [4], pp. 847-868, 2003. 



54 LE SCIENZE 



443 /luglio 2005 



Il vecchio assioma 

«un gene, una proteina» 

è morto. Più un organismo 

è complesso, più è 

probabile che 

la sua complessità derivi 

dalla capacità 

di estrarre molteplici 

significati funzionali 

da uno stesso gene 

enoma 



SIIRIIIKI 



di Gii Ast 



QUESTIONE DI EDITING. Il genoma del topo e quella dell'uomo sì somigliano 
all'88 per cento. Molte delle differenze tra esseri umani e roditori derivano 
dal modo in cui è montata e rimontata l'informazione genetica. 




Nella primavera del 2000 i biologi mole- 
colari cominciarono a scommettere sul 
numero di geni che avrebbero trovato nel 
genoma umano al termine del sequenzia- 
mento dei nucleotidi che compongono il 
DNA, Alcune stime arrivavano addirittu- 
ra a 153.000: dopo tutto, sostenevano in 
molti, gli esseri umani sintetizzano qua- 
si 90.000 tipi diversi di proteine, perciò 
dovremmo avere almeno altrettanti geni 
per codificarle. Datala nostra complessità, 
inoltre, dovremmo disporre di un assorti- 
mento genetico più consistente di quello 
del verme nematode Caenorhabditìs de- 
gans, che è costituito da 1000 cellule e ha 
19.500 geni, o del granoturco, che di geni 
ne ha 40.000. 

Cosi quando l'estate seguente fu pub- 
blicata la prima bozza della sequenza del 
genoma umano, ci fu chi restò molto tur- 
bato nell'apprendere che i calcoli del grup- 
po che aveva portato a termine il sequen- 
ziamento indicavano un numero di geni 
compreso fra 30.000 e 35.000, Un numero 
cosi basso era quasi imbarazzante! Negli 
anni seguenti, la mappa del genoma uma- 
no è stata completata e la stima dei geni ha 
subito un ulteriore decremento, arrestando- 
si a meno di 25.000, Contemporaneamente, 
però, i genetisti hanno cominciato a capi- 
re che il nostro limitato corredo genetico 
in realtà può essere interpretato come un 
indice del livello di sofisticazione della 
specie umana, che fa un uso incredibil- 
mente versatile di così pochi geni. 

Aura verso un meccanismo chiamato 
splieing alternativo, le informazioni rac- 
chiuse nei geni degli organismi comples- 
si possono subire un editing, vale a dire 
essere tagliate, montate e rimontate in 
vari modi, consentendo a un singolo gene 
di specificare due o più proteine diverse. 
Confrontando il genoma umano con quel- 
lo di altri organismi, gli scienziati si stanno 
rendendo conto che lo splieing alternativo 
riesce a spiegare gran parte della diversità 
esistente fra organismi dotati di un corredo 
genetico relativamente simile. Per di più, 
lo splieing alternativo consente a tessuti 
diversi all'interno dì uno stesso organismo 
di svolgere differenti funzioni usando lo 
stesso ridotto assortimento di geni. 

A quanto pare, anzi, la prevalenza dello 
splieing alternativo aumenta via via che 
aumenta la complessità dell'organismo: 
almeno tre quarti dei geni umani sono 
sottoposti a forme alternative di editing. 



Probabilmente è stato questo meccanismo 
a contribuire all'evoluzione della nostra 
complessità e sarà lui a guidare la nostra 
evoluzione futura. Inoltre, gli scienziati 
stanno iniziando a comprendere due pun- 
ti importanti: il modo in cui uno splieing 
genico difettoso provoca malattie con- 
genite e diversi tipi di tumore, e come si 
potrebbe controllare il meccanismo dello 
splieing a scopi terapeutici. 

Scelte cruciali 

L'importanza dell'editing alternativo 
nel funzionamento di molti organismi 
è centrale. Per esempio, è da esso che 
dipendono la vita e la morte: almeno nel 
momento in cui una cellula danneggiata 
deve decidere se sopravvivere o no. Ogni 
cellula rileva costantemente le condizioni 
esteme e interne, così da poter decidere se 
continuare a crescere o autodistruggersi in 
un processo preprogrammato noto come 
apoptosi. Le cellule che non sono in gra- 
do di riparare il proprio DNA attiveranno 
il loro programma apoptotico. Craig B. 
Thompson e col leghi dell'Università della 
Pennsylvania hanno recentemente dimo- 
strato che un gene regolatore dell'apop- 
tosi, chiamato Bcl-x, subisce uno splieing 



ritenuto raro. I recenti confronti tra geno- 
mi hanno invece rivelato che si tratta di 
un evento comune e cruciale, imprimendo 
una svolta alla teoria tradizionale su come 
l'informazione contenuta in un gene si 
traduce in una proteina. La maggior par- 
te delle nozioni di genetica che ci sono 
familiari sono ancora valide: i genomi nel 
loro complesso contengono tutte le istru- 
zioni necessarie per costruire e mantenere 
efficiente un organismo, istruzioni codi- 
ficate in un linguaggio di quattro lettere 
(abbreviate in A, G, C e T) corrispondenti 
ai nucleotidi che costituiscono il DNA, 
Nei cromosomi umani, circa tre miliardi 
dì nucleotidi sono legati assieme su cia- 
scuno dei due filamenti complementari 
che formano la doppia elica. 

Quando arriva il momento di «esprime- 
re» le istruzioni contenute in un gene, la 
cerniera del doppio filamento di DNA si 
apre per una lunghezza sufficiente a con- 
sentire la sintesi di una copia a singolo fila- 
mento della sequenza genetica da parte di 
un cugino chimico, l'RNA. Ogni sequenza 
nucleotidica di DNA così trascritta nel cor- 
rispettivo RNA è chiamata gene. Alcune 
delle molecole di RNA prodotte in questo 
modo non sono mai tradotte in proteine, 
ma continuano invece a svolgere funzioni 



In sintesi/La ricetta della complessità 



m Le istruzioni contenute in un gene possono essere modificate dall'apparato 
cellulare in modo da trasmettere più significati diversi, consentendo 
a un ridotto numero di geni di dare origine a una gamma morto ampia di 
proteine diverse. 

■ Era noto da tempo che i messaggi genetici possono subire lo splieing 
alternativo. Ma è solo da quando è diventato possibile confrontare le sequenze 
del genoma umano e di quello di altri organismi che si è osservato fino a che 
punto lo splieing alternativo sia diffuso negli organismi complessi, e quanto 
questo meccanismo contribuisca al differenziamento di creature dotate di 
corredi genetici simili. 

p Lo splieing alternativo consente a un numero limitato di geni di produrre e 
regolare organismi complessi decìdendo quando, dove e quali tipi di proteine 
devono sintetizzare. Approfondendo queste conoscenze potremmo presto 
riuscire a regolare lo splieing genico per combattere le malattie. 



alternativo per produrre l'una o l'altra di 
due diverse proteine: Bcl-x (L) e Bcl-x(S), 
La prima sopprime l'apoptosi, mentre la 
seconda la favorisce. 

La scoperta che le cellule possono dare 
origine a strutture proteiche così diverse, 
sintetizzate a partire da un solo gene, rìsa- 
le a circa 25 anni fa, ma il fenomeno era 



di manutenzione e regolazione all'interno 
del nucleo (si veda li genoma nascosto: perle 
nella spazzatura, di W. Wayt Gìbbs, in «Le 
Scienze» n. 434, dicembre 2003). Alla fine, 
i trascritti di RNA corrispondenti a geni che 
codificano per una proteina saranno letti 
dall'apparato cellulare e tradotti in una 
corrispondente sequenza ammìnoacidica. 



58 LE SCIENZE 



443/luglio2005 



UN GENE, TANTE PROTEINE 



La visione classica dell'espressione genica era semplice: 
un gene presente nel DNA è inizialmente trascritto in un 
filamento di RNA, poi il meccanismo cellulare dello splieing 
elimina alcune regioni «spazzatura», gli introni, e unisce quelle 
significative, gli esoni, in una molecola di RNA messaggero ebe 
viene successivamente tradotta in una proteina. Come si è 



ESPRESSIONE GENICA CLASSICA 
Una sequenza di DNA è trascritta in una 
copia a singolo filamento di RNA. L'apparato 
cellulare «unisce» poi questo trascritto 
primario: gli introni -ciascuno dei quali 
è caratterizzato da precise sequenze 
nucleotidi eh e poste ai suoi estremi, note, 
rispettivamente, come siti di splieing 5 ' 
(cinque primo] e 3 ' (tre primo] - sono 
rimossi ed eliminati, mentre gli esoni 
vengono uniti per formare la versione di 
RNA messaggero (mRNA) del gene che sarà 
tradotta dalla cellula in una proteina. 



SPUCING ALTERNATIVO 

I trascritto primario di un gene può essere 
alterato in molti modi diversi, come 
mostrato nella figura a destra, dove lo 
sp I ici ng è i n dicalo da I i n e e t ratte ggìate. U n 
esonc può essere saltato (□]. L'apparato 
di splieing può riconoscere siti di splieing 
alternativi in 5 ' perun ìntrone [b] o siti 
di splieing alternativi in 3 ' (e). Un introne 
può essere conservato nel trascritto 
finale dell'RNA messaggero (d],egli esoni 
possono essere conservati sulla base di 
una reciproca esclusione [e]. 

1 Esone che subisce sempre lo splieing 
Esane che subisce uno splieing alternativo 
Introne 



scoperto in seguito, queste regole non sono sempre rispettate. 
Negli organismi complessi, il trascritto primario di RNA può 
subire uno splieing alternativo - gli esoni possono essere 
scartati e gli introni, o alcune loro parti, conservati -in modo 
da produrre una varietà di RNA messaggeri, e quindi proteine 
diverse, a partire da un singolo gene. 

DNA di un gene 



Wwf%#%4Wwl 




Trascritto primario di RNA 



H 



Introni 
scartati 



RNA messaggero 



Traduzione 



| scanali 



Tir 



Proteina _#• 



a ESON E SALTATO 



RNA messaggero risultante 



b SiTIALTERNATIVIDISPLlCINGINS' 



X 



I 



''- 



e SITI ALTERNATIVI DI SPUCING IN 3' 



~< 



' 



d INTRONE CONSERVATO 



«=^-C — < 



' 



e CONSERVAZIONE DI UN ESON E INCOMPATIBILE CON UN ALTRO 



Prima però il trascritto iniziale deve subire 
un processo di revisione. 

Nel 1977 Philllp A. Sharp, del Massa- 
chusetts Institute of Technology, e Riehard 
J. Roberts, dei New England Bìolabs, sco- 
prirono che questi trascritti iniziali di RNA, 
o trascritti primari di RNA (pre-mRNA), 
sono simili a libri che contengono tanti 



capitoli privi di significato inseriti a inter- 
valli variabili all'interno del testo. I capito- 
li privi di senso, chiamati introni, devono 
essere tagliati, mentre quelli significati- 
vi vanno riuniti insieme per consentire 
all'RNA di raccontare una storia coerente. 
In questo processo di tagli a- e- cuci, noto 
come splieing, gli introni sono taglia- 



ti via dal trascritto iniziale ed eliminati. 
I segmenti del trascritto che contengono 
sequenze significative per la codifica dì 
proteine, chiamati esoni, vengono saldati 
Insieme per formare una versione finale del 
trascritto, nota come RNA messaggero o 
mRNA {si veda il boi qui sopra]. 

Ma nel 1980 Randolph Wall dell'Uni- 



www.lescienie.it 



LE SCIENZE 59 



versità della California a Los Angeles ha 
dimostrato che quest'idea basilare dello 
splicing del pre-mRNA, in cui tutti gli 
introni sono sempre scartati e tutti gli 
esoni sempre inclusi nell'RNA messagge- 
ro, non è sempre valida. L'apparato cellu- 
lare può «decidere» di eliminare un esone 
o di conservare un introne, o parti di esso, 
nel trascritto finale dell'RNA messagge- 
ro. Questa capacità di editing alternativo 
dei trascritti di pre-mRNA può aumentare 
notevolmente la versatilità di un gene, for- 
nendo al meccanismo di splicing un enor- 
me potere nel determinare quale quantità 
di una certa proteina sarà prodotta da una 
cellula rispetto alle altre possibili proteine 
codificate dallo stesso gene. 

Nel 1984 Tom Maniatis e Michael Green 
della Harvard University hanno messo a 
punto un test di laboratorio per rivelare 
l'apparato molecolare che esegue il taglio 
degli introni e unisce gli esoni, I dettagli 
del funzionamento e del sistema di rego- 
lazione che controlla l'apparato non sono 
ancora completi, ma questa ricerca sta por- 
tando alla luce un sistema squisitamente 
complesso dalle origini affascinanti. 

La macchina dello splicing 

Negli organismi complessi lo splicing dei 
trascritti di pre-mRNA coinvolge strutture 
molecolari a due distinti livelli. C'è il cosid- 
detto apparato di base, presente in tutti gli 
organismi il cui genoma contiene introni, 
e che si è fortemente conservato durante il 
corso dell'evoluzione, dal lievito agli esseri 
umani. Esso si compone di cinque piccole 
molecole di RNA nucleare (snRNA), chia- 
mate Ul, U2, U4, U5 e 116, che insieme ad 
almeno 1 50 proteine formano un comples- 
so detto spliceosoma, a cui spetta il compi- 
to di riconoscere i siti dove iniziano e fini- 
scono gli introni, rimuoverli dal trascritto 
di pre-mRNA e unire gli esoni formando 
l'RNA messaggero. 

[ segnali che indicano allo spliceosoma 
i punti in cui tagliare sono quattro brevi 
sequenze nucleotìdiche all'interno degli 
introni {si veda il box nella pagina a fron- 
te}. Uno di questi segnali di splicing si tro- 
va all'inizio dell 'introne ed è chiamato sito 
di splicing 5' (cinque primo, o donatore); 
gli altri, localizzati alla fine dell'introne, 
sono noti come brandi site, tratto polipi- 
rimidinico e, infine, sito di splicing 3' (tre 
primo, oaccettore). 



n processo di splicing è controllato da 
un sistema regolatore indipendente che 
indirizza l'apparato cellulare di base ver- 
so i siti di splicing. Sono state identificate 
oltre dieci diverse proteine regolatrici del- 
lo splicing (SR), la cui forma può variare 
a seconda dei diversi tessuti, o stadi di 
sviluppo all'interno dello stesso tessuto. 
Le proteine SR possono legarsi a brevi 
sequenze nucleo tidiche all'interno degli 
esoni dell'RNA trascritto primario. Questi 
siti di legame sono noti come enhancer 
(potenziatori) di splicing dell 'esone, ESE, 
perché quando la proteina SR appropria- 
ta si lega a uno di essi, fa confluire gli 
snRNA dell'apparato basale verso i siti 
di splicing adiacenti a ciascuna delle due 
estremità dell'esone. Una proteina SR può 
però legarsi anche a un sito soppressore 
di splicing dell'esone (ESS) all'interno 
dell'esone: in questo caso, sopprimerà la 
capacità dell'apparato di base di legarsi 
alle estremità di quell'esone, facendo si 
che Tesone sia eliminato dall'RNA mes- 
saggero finale. 

L'eliminazione anche di un solo esone 
può avere conseguenze straordinarie su 
un organismo. Nel moscerino della frut- 
ta, per esempio, lo splicing alternativo 
regola il processo di detenui nazione del 
sesso. Quando è espresso un gene chia- 
mato Sex-lethal, può accadere che durante 
lo splicing un esone specifico del genere 
maschile venga saltato, portando alla sin- 
tesi di una proteina Sex-lethal femmini- 
le specifica. Questa proteina può quindi 



non funzionante, che impegna le cellule 
del moscerino a intraprendere un percorso 
di sviluppo maschile. 

Saltare un esone è lo splicing alternati- 
vo più comune tra i mammiferi, ma sono 
stati identificati molti altri meccanismi, tra 
cui uno che determina la conservazione 
degli introni nell'RNA messaggero, parti- 
colarmente frequente nelle piante e negli 
organismi pluricellulari inferiori. E pro- 
babile che la conservazione degli introni 
sia la più antica versione di splicing alter- 
nativo apparsa nel corso dell'evoluzione. 
L'apparato di splicing di organismi uni- 
cellulari come il lievito funziona tuttora 
mediante il riconoscimento degli introni, 
al contrario di ciò che accade con il sistema 
delle proteine SR degli organismi superiori, 
che individua gli esoni a vantaggio del- 
l'apparato di base. 

Nel sistema unicellulare, l'apparato di 
splicing può riconoscere solo le sequen- 
ze di introni con meno di 500 nucleotidi, 
il che va benissimo per il lievito, che ha 
pochissimi introni, lunghi in media appena 
270 nucleotidi. Ma nel corso dell'evoluzio- 
ne, via via che le dimensioni dei genomi 
aumentarono, le loro sequenze introniche 
si moltiplicarono e divennero più ampie, 
costringendo assai probabilmente l'ap- 
parato cellulare di splicing a mutare e a 
trasformarsi da un sistema che riconosce 
brevi sequenze introniche in mezzo agli 
esoni a uno che riconosce brevi esoni in 
un mare di introni. Il gene umano medio 
che codifica per una proteìna, per esempio, 



lllllllllllllllllllllllllllllllllllll 



Per un organismo, anche l'eliminazione 

di un singolo esone 

può avere conseguenze straordinarie 



legarsi a qualunque successivo trascritto di 
pre-mRNA proveniente dallo stesso gene, 
garantendo che tutti i successivi eventi di 
splicing continuino a eliminare Tesone 
maschile specifico, e che sia sintetizzata 
solo la proteina femminile specifica. Se 
invece durante la prima fase dell'editing 
Tesone caratteristico del sesso maschile è 
conservato si ottiene un RNA messaggero 



è lungo 28.000 nucleotidi, con 8,8 esoni 
separati da 7,8 introni. Gli esoni sono rela- 
tivamente corti, di solito circa 1 20 nucleo- 
tidi, mentre gli introni contengono da 100 
a 100.000 nucleotidi. 

La dimensione e la quantità degli introni 
umani - la nostra specie ha il più elevato 
numero di introni per gene di qualunque 
altro organismo - solleva una questio- 



60 LE SCIENZE 



443 /luglio 2005 



L'APPARATO DI SPLICING 



Dopo che un trascritto primario di RNA è stato sintetizzato a partire dalle 
informazioni contenute in un gene, una struttura chiamata spliceosoma esegue 
l'editing dell'RNA. Negli organismi complessi, questo processo è controllato da alcune 
proteine regolatrici dello splicing (SR) che determinano la posizione degli esoni e 
dirigono lo spliceosoma verso i siti specifici dove avviene la reazione. Queste molecole 
regolatrici, dunque, hanno il potere di determinare quando e come avverrà lo splicing 
alternativo di un gene. Le stesse proteine SR vengono sintetizzate in varie forme nei 
diversi tessuti e nelle diverse specie cellulari, o durante differenti stadi di sviluppo 
all'interno dello stesso tessuto. 

Tratto poli pirimid inico — 
DEFINIZIONE DELL'ESONE 
Nel trascritto primario, una proteina SR 
si lega a ciascun esone in corrispondenza 
di una sequenza nucleotidica 
caratteristica chiamata potenziatore 
di splicing dell'esone (ESE). 
Il legame con la proteina SR 



SR ESE 




segnala Tesone all'apparato di 
splicing richiamando piccole molecole di 
RNA nucleare (snRNA) -chiamate Ul e 
U2 - nei siti di splicing a entrambe le sue 
estremità, sugli introni adiacenti. 

FORMAZIONE DELLO SPLICEOSOMA 
Quando gli snRNA originali hanno 
riconosciuto i siti di splicing dell'introne, 
f orna no un complesso con ulteriori snRNA 
e più di 100 proteine. Questo complesso, 
chiamato spliceosoma, elimina gli introni 
e unisce gli esoni per produrre l'RNA 
messaggero maturo (m RNA). 



LA SOPPRESSIONE DELLO SPLICING 

In vece di favo ri re i 1 1 ega m e degli 

snRNA una proteina SR può anche 

sopprimerlo, legandosi a un 

soppressore di splicing dell'esone 

(ESS). La protein a SR può quindi causare lo 

spi icin g di u n eson e d a II ' R N A m e ssa gge ro 

Finale. Negli esseri umani e in altri mammiferi, 

l'eliminazione di un esone con questo metodo è 

la forma più frequente di splicing alternativo. 



Ul 

I 
snRNA 



SR Sito di 
splicing 5 



Ul 






Introne 



SR, .SR. 

Ul U2 — U1.U2, 
U6 U4 UB Ù4 



SR 



Proteine 



II 



Spliceosoma 



RNA messaggera 




[Splicing 



Esone 1 Esone 3 



mRNA 



ne interessante. Per noi, gli introni sono 
un'abitudine onerosa. Una percentuale 
consìstente dell'energia che consumiamo 
ogni giorno è dedicata alla manutenzione 
e alla riparazione di introni nella forma 
di DNA, alla trascrizione del pre-mRNA e 
alla rimozione degli introni, e persino alla 
degradazione degli introni al termine della 
reazione di splicing. Inoltre, questo siste- 



ma può provocare gravi sbagli. Ogni errore 
nel taglio e nella successiva ricucitura del 
pre-mRNA porta a un cambiamento nella 
sequenza del trascritto genico che codifica 
per una proteina, e probabilmente alla sin- 
tesi di una proteina difettosa. 

Per esempio, una malattia ereditaria che 
sto studiando, la disautonomia familiare o 
neuropatia autonomica sensoriale eredi- 



taria, deriva da una mutazione a carico di 
un unico nucleotide iti un gene chiamato 
1KBKAP, che subisce uno splicing alter- 
nativo nei tessuti del sistema nervoso. La 
conseguente diminuzione della disponibi- 
lità della comune proteina IKBKAP porta 
allo sviluppo anomalo del sistema nervoso, 
e circa il 50 per cento dei pazienti colpiti 
dalla malattia muore prima dei trent'anni. 
Almeno il 1 5 per cento delle mutazioni nei 
geni che producono malattie genetiche (e 
probabilmente anche alcuni tumori) insor- 
ge in seguito a uno splicing che modifica il 
pre-mRNA. Ma allora perché l'evoluzione 
ha conservato un sistema così complesso, 
che per di più può causare malattie? Forse 
perché i benefici superano i rischi. 

I vantaggi dell'alternativa 

Generando più di un tipo di RNA mes- 
saggero, e quindi più di una proteina per 
ciascun gene, lo splicing alternativo con- 
sente agli esseri umani di produrre più 
di 90,000 proteine senza dover sosten- 
tare altrettanti geni. In media, ciascuno 
dei nostri geni genera circa tre splicing 
alternativi di mRNA. Questo non spiega 
però perché abbiamo bisogno di così tanti 
introni e perché essi occupano la maggior 
parte dello spazio che spetterebbe al geni, 
lasciando alle sequenze esoniche appena 
Tl-2 percento del genoma umano. 

1 diversi gruppi di ricerca impegnati nel 
sequenziamento del genoma umano mise- 
ro in evidenza questo paesaggio genomi- 
co apparentemente desertico nel 2001, ma 
nel 2002 la pubblicazione del genoma del 
topo fece emergere un nuovo enigma: a 
quanto pare, un topo ha quasi lo stesso 
numero di geni di un essere umano. Anche 
se sono passati circa 100 milioni di anni da 
quando avevamo un antenato in comune 
con il topo, il 99 per cento dei geni umani 
e taurini derivano da questo antenato. La 
maggior pane di essi condivide la stessa 
disposizione di Introni ed esoni, e anche 
le sequenze nucleotìdiche all'interno degli 
esoni mostrano un elevato grado di con- 
servazione. Stando così le cose, la doman- 
da è: se tra il nostro genoma e quello dei 
topi ci sono così poche differenze, che 
cos'è che ci rende tanto diversi da loro? 

Recentemente, Christopher J. Lee e Bar- 
mak Modrek della UCLA hanno rivelato 
che un quarto degli esoni che subiscono lo 
splicing alternativo in entrambi ì genomi 



www.lescienze.it 



LESCIENZE 61 



sono specifici o per gii esseri umani o per 
i topi. Dì conseguenza, questi esoni hanno 
la potenzialità di creare proteine specie- 
specifiche che potrebbero essere responsa- 
hili rlella diversità fra le specie. In effetti, 
un gruppo di esoni che subisce lo splicing 
alternativo si ritrova solo nei primati e 
potrebbe aver contribuito alla loro diver- 
genza dagli altri mammiferi. Studiando il 
processo che porta alla formazione di que- 
sti esoni, si iniziano a vedere i vantaggi 
degli introni, e l'energia che spendiamo per 
sostentarli sembra giustificata. 

Questi esonì specifici dei primati deri- 
vano da elementi genetici mobili chiamati 
Alu, che appartengono a una classe più 
vasta di elementi noti come retrotraspo- 
soni: brevi sequenze di DNA la cui fun- 
zione sembra quella di generare copie di 
se stesse e, successivamente, di reinseri- 
re queste copie nel genoma in posizioni 
casuali, come se fossero piccoli parassiti 
genomici. I retrotrasposoni si ritrovano in 
quasi tutti i genomi: la loro influenza è 
stata davvero notevole poiché hanno con- 
tribuito all'espansione genomica che ha 
accompagnato l'evoluzione degli organi- 
smi pluricellulari. Quasi metà del genoma 
umano è costituita da elementi trasponi- 
gli, e la famiglia degli elementi Alu è la 
più numerosa. 

Gli elementi Alu sono lunghi solo 300 
nucleo ridi e hanno una sequenza caratte- 
ristica che termina in una cosiddetta «coda 
poli-A». Il nostro genoma contiene circa 
1,4 milioni di copie Alu, e molte di esse 
stanno continuando ad amplificarsi e a 
reinserirsi in nuove regioni del genoma, 
alla velocità di un nuovo inserimento circa 
ogni 100 o 200 nuove nascite. 

Considerate a lungo null'altro che spaz- 
zatura genomica, le sequenze Alu hanno 
iniziato a ottenere un po' di rispetto quan- 
do i genetisti hanno capito il modo in cui 
il loro inserimento amplia la capacità di 
variare la sintesi proteica di un gene. Circa 
il cinque per cento degli esoni che subi- 
scono uno splicing alternativo nel geno- 
ma umano contiene una sequenza Alu. 
Probabilmente questi esoni si sono formati 
quando un elemento Alu è «saltato» nell'ìn- 
trone di un gene, dove normalmente l'in- 
serzione non avrebbe dovuto avere alcuna 
conseguenza negativa peri primati, poiché 
la maggior parte degli introni subisce lo 
splicing e viene eliminata. Attraverso una 
successiva mutazione, comunque, l'Alu 



L'AUTORE 



GILAST è docente universttario nel Dipartimento di genetica umana e medicina moleco- 
lare alla University Medicai School di Tel Aviv. Il suo settore di ricerca sono le dinamiche 
molecolari dello splicing del trascritto primario di RNA, l'evoluzione e la regolazione dello 
splicing alternativo, e i difetti dello splicing associati ai tumori e alle malattie ereditarie. 
Recentemente ha collaborato con alcuni scienziati della Compugen per sviluppare un siste- 
ma bioinformatico in grado di predire eventi di splicing alternativo allo scopo di scoprire 
nuove varianti proteiche. 



PER APPROFONDIRE 



GRAVELEY B.R., /WternofiVe Splicing: Increosing Diversity in the Proteomic World, in «Trends in 
Genetics», Voi. 17, n. 2, pp. 100-10?, febbraio 2001. 

NISSIM-RAFINIA M. e KEREM B., Splicing Regulation as a Potentini Genette Modifier, in «Trends 
in Genetics», Voi. 18, n. 3, pp. 123-127, marzo 2002. 

MATTICK J,S.,W segreto della complessità, in «Le Scienze», n. 436, dicembre 2004. 

AST G., Ho wDid Alternati ve Splicing Evolve ?, in «Nature Reviews Genetics», Voi, 5, pp. 773-782, 
ottobre 2004. 



IIMIIIIIIIIIilllllilllllllllllllllll 



Perché l'evoluzione ha conservato 

un sistema complesso 

che potrebbe provocare malattie? 



potrebbe trasformare l'introne che lo ospita 
in una sequenza significativa dotata di una 
precisa informazione genetica: un esone. 
Ciò può accadere se i cambiamenti nella 
sequenza Alu creano un sito di splicing 
5' o 3' nell'introne, facendo si che parte 
di esso venga riconosciuta come «esone» 
dallo spliceosoma. 

Se il nuovo esone Alu subisce lo spli- 
cing solo in alcuni casi, l'organismo può 
godere il meglio di due situazioni diver- 
se: includendo Tesone Alu le sue cellule 
possono produrre un'altra proteina, ma 
questa nuova capacità non interferisce 
con la funzione originale del gene perché 
le molecole di RNA messaggero originarie 
vengono ancora sintetizzate quando Teso- 
ne Alu va incontro al processo di splicing. 
Solo quando una sequenza Alu mutata 
subisce lo splicing in modo costitutivo 
- vale a dire quando Tesone Alu va sempre 
incontro allo splicing in tutti gli mRNA 
prodotti dal gene - essa diventa fonte di 
problemi, perché può scatenare malattie 
genetiche causate dalla mancanza della 
vecchia proteina. 



Con la mia équipe, ho dimostrato che 
per convertire alcun i elementi intronici Alu 
silenti in veri e propri esoni basta il cam- 
biamento di una sola lettera nella sequenza 
del loro DNA. Il genoma umano contie- 
ne circa 500.000 elementi Alu localizzati 
all'interno degli introni, 25.000 dei quali 
potrebbero diventare nuovi esonì. Di con- 
seguenza, le sequenze Alu hanno tutte le 
potenzialità per continuare ad arricchire la 
riserva di informazioni genetiche disponi- 
bili per produrre nuove proteine umane. 

La terapia a RNA 

Nel mondo sono più di 400 i laboratori 
di ricerca che stanno cercando di capire le 
complesse reazioni coinvolte nello splicing 
alternativo. Benché le ricerche siano anco- 
ra in una fase preliminare, gli studiosi con- 
cordano che le scoperte più recenti aprono 
la strada verso future applicazioni tera- 
peutiche: per esempio, nuove strategie di 
terapìa genica che sfruttano il meccanismo 
di splicing per curare sia malattìe ereditarie 
sia malattie acquisite come i tumori. 



62 LESCIENZE 



443 /luglio 2005 



MA IL CERVELLO NO. Scimpanzé ed esseri umani condividono il 99 per cento dei genoma, inclusi 
minuscoli elementi genetici mobili chiamati Alo, presenti solo nei primati. Attraverso lo splicing 
alternativo, le sequenze Alo possono aver dato origine a nuove proteine che hanno condono i primati 
a divergere dagli altri mammiferi. Anche la divergenza degli esseri umani dagli altri primati può essere 
in parte dovuta a splicing alternativi: studi recenti hanno dimostrato che i geni quasi identici di umani 
e scimpanzé producono in pratica le stesse proteìne in gran parte dei tessuti, tranne che net cervello, 
dove alcuni geni umani sono più attivi e altri generano proteine significativamente diverse, ottenute in 
gran parte attraverso splicing alternativo dei trascritti genici. 




Un approccio potrebbe essere quello 
di indurre una breve sequenza sintetica 
di RNA o di DNA, formata dai cosiddetti 
oligomicleotidi antisenso, a legarsi a un 
bersaglio specifico sul DNA o sulTRNA 
del paziente. Gli oligonucleotidì antisen- 
so potrebbero essere inseriti nelle cellule 
per mascherare uno specifico sito di spli- 
cing o qualche altra sequenza regolatrice, 
spostando altrove l'attività di splicing. 
Ryszard Kole, dell'Università del North 
Carolina a Chapel Hill, ha sperimentato per 
primo questa tecnica su cellule staminali 
ematopoietiche provenienti da pazienti 
affetti da beta talassemia, in cui un sito di 
splicing aberrante in 5' provoca la defor- 
mazione delle molecole di emoglobina 
che trasportano ossigeno. Mascherando 
la mutazione, Kole è riuscito a riportare 
il sito di splicing dove si trovava in origi- 
ne, e quindi a ripristinare la produzione di 
emoglobina funzionale. 

In seguito, Kole ha dimostrato che la 
stessa tecnica può essere usata su cellule 
tumorali umane cresciute in coltura. Ma- 
scherando un sito di splicing in 5' del tra- 



scritto del gene Bcì-x, che regola Tapopto- 
si, è riuscito a trasferire l'attività di splicing 
per generare la forma Bcl-x(S) dell'RNA 
messaggero, invece della forma Bcl-x(L): 
in questo modo ha fatto diminuire la sinte- 
si di proteine antiapoptotiche da parte delle 
cellule cancerogene, e aumentare la sinte- 
si di proteine che favoriscono il suicidio 
programmato. In alcune cellule tumorali 
questa alterazione attiva il programma di 
apoptosl; in altre, aumenta gli effetti apop- 
totìci dei farmaci chemioterapici sommini- 
strati insieme agli oligonucleotidì. 

Un altro modo di usare lo splicing alter- 
nativo a scopo terapeutico è stato dimo- 
strato nel 2003 da Adrian Krainer e Luca 
Cartegni del Cold Spring Harbor Laboratory 
a Long Island, che hanno scoperto come 
indurre le cellule a conservare mediante 
splicing un esone che, altrimenti, sarebbe 
stato eliminato. Hanno creato una mole- 
cola sintetica che può essere programmata 
per legarsi a qualunque molecola di RNA 
a seconda della sua sequenza, poi hanno 
unito la regione di legame alTRNA di una 
proteìna SR. Questa molecola chimerica 



può legarsi a una precisa sequenza sul pre- 
mRNA ma può anche richiamare l'appara- 
to di splicing di base fino all'appropriato 
segnale dì splicing. Krainer e Cartegni han- 
no usato questo metodo su cellule umane 
cresciute in coltura per correggere alcu- 
ni difetti di splicing in mutanti del gene 
BRCAI, coinvolto nel tumore al seno, e 
del gene SMN2, responsabile dell'atrofìa 
muscolare spinale. 

Un terzo approccio approfitta della 
capacità dello spliceosoma di unire due 
diverse molecole di pre-mRNA provenien- 
ti dallo stesso gene per formare un RNA 
messaggero composto. Definito trans- 
splicing, il fenomeno è comune nei ver- 
mi ma nelle cellule umane si verifica di 
rado. Costringere lo spliceosoma a effet- 
tuare il trans- splicing potrebbe consenti- 
re alla regione mutata di un pre-mRNA 
responsabile di una malattia di essere eli- 
minata in modo preciso, e sostituita con 
una sequenza codificante per la proteina 
normale. Recentemente John Englehardt 
dell'Università dello Iowa ha usato questa 
tecnica in colture cellulari per correggere 
parzialmente il pre-mRNA di un gene che 
produce una proteina difettosa nelle cellule 
polmonari dei malati di fibrosi cistica. 

Prima del sequenziamento del geno- 
ma umano, erano in pochi a pensare 
che organismi complessi come gli esseri 
umani potessero sopravvivere soltanto 
con 25.000 geni. Da quando la sequenza 
è stata completata, lo splicing alternati- 
vo si è rivelato il processo fondamentale 
che permette a un limitato numero d i geni 
di produrre l'assortimento proteico assai 
più ampio necessario a produrre il corpo 
umano e il cervello, coordinandone effi- 
cacemente la sintesi nei diversi tessuti in 
tempi diversi. Perdi più, lo splicing spiega 
il modo in cui l'incredibile diversità esi- 
stente fra esseri umani, topi e presumibil- 
mente tutti ì mammiferi ha avuto origine 
da genomi cosi simili. 

L'evoluzione agisce offrendo agli orga- 
nismi nuove possibilità, e poi selezionan- 
do quelle che conferiscono un vantaggio. 
Di conseguenza, nuove proteine create 
dallo splicing di nuovi esonì derivati dagli 
elementi Alu hanno probabilmente con- 
tribuito a fare degli esseri umani la specie 
che oggi conosciamo. Ulteriori ricerche 
sullo splicing alternativo fanno intrave- 
dere miglioramenti anche maggiori nella 
qualità della nostra vita. m 



www.lescienze.it 



LESCIENZE 63 




~) 






JL 









di Joseph R.Dwyer 



) 



Nuove ricerche dimostrano 
che il fulmine è un fenomeno 
straordinariamente 
complesso e sconcertante 



I fulmine è un prodotto particolarmente inquietante del cattivo tempo. Nel soli 
Stati Uniti causa più morti e feriti di quelli provocati da uragani e tornado, e col- 
pisce senza alcun preavviso, talvolta addirittura a cielo quasi sereno. Nella Flo- 
rida centrale, dove vivo, durante l'estate i temporali si scatenano praticamente 
ogni giorno, ed è un'ironia della sorte che gli abitanti dei «Sunshine State», to 
Stato soleggiato per antonomasia, si ritrovino spesso costretti a trascorrere 
L_ i pomeriggi estivi chiusi in casa per evitare il rischio di morire folgorati. Com- 
plessivamente, in tutto il mondo, saettano circa quattro milioni di fulmini ai giorno, e 
anche su altri pianeti sono stati osservati dei lampi. Tuttavìa, nonostante la familiarità 
del fenomeno, ancora non possiamo dire di sapere per certo che cosa causi i fulmini. 



E sbagliato pensare che Benjamin 
Franklin abbia risolto il mistero una volta 
per tutte nel 1752 con il suo celebre espe- 
rimento dell'aquilone. Per quanto Franklin 
abbia dimostrato che il fulmine è un feno- 
meno elettrico, gli scienziati stanno ancora 
cercando di capire come fanno i temporali 
a generarne la carica elettrica, e quindi, 
in definitiva, come si verifica il fulmine. I 
fisici hanno ipotizzato che i fulmini abbia- 
no una sorta di miccia extra planetaria: i 
raggi cosmici - particelle di alta energia 
che bombardano la Terra dallo spazio 
- indurrebbero cascate di elettroni ad alta 
velocità nell'atmosfera. Recentemente, è 
stata scoperta una nuova linea di inda- 
gine per lo studio dei fulmini; l'esame dei 
raggi X emessi quando il fulmine sfrec- 
cia dalle nubi al suolo. Negli ultimissimi 
anni, il nostro gruppo ha misurato i raggi 
X prodotti sia da fulmini naturali sia da 
lampi innescati artificialmente. A quanto 
suggeriscono ì risultati, il fulmine disegna 
i suoi frastagliati percorsi conduttivi emet- 
tendo raffiche di elettroni ad alta velocità. 
Ma il modo in cui accelera questi elettroni 
è estremamente sconcertante. 

Più strani delle scintille 

Per alcuni aspetti, i Fulmini assomiglia- 
no a grosse scintille. Si pensi alle normali 
scintille che scoccano quando sì tocca la 
maniglia di una porta dopo avere cammi- 
nato su una moquette. Muovendosi sulla 
moquette, le suole delle scarpe asportano 
elettroni per sfregamento, causando un 
accumulo di carica elettrica che crea un 
campo elettrico tra chi cammina e gli altri 
oggetti presenti nella stanza. Per campi 
elettrici di piccola entità, l'aria costituisce 
un buon isolante e la corrente elettrica non 
può fluire in quantità apprezzabile. Quan- 



do il dito sfiora la maniglia, però, il cam- 
po elettrico subisce un incremento locale, 
raggiungendo un valore critico di circa 
tre milioni di volt per metro: il cosiddetto 
campo di scarica disruptiva. L'aria diventa 
allora un conduttore elettrico e la scarica 
può verificarsi. 

L'elettrizzazione che avviene nei tem- 
porali ha alcune somiglianze con l'esem- 
pio della moquette. All'interno dei tem- 
porali, il ruolo delle scarpe è svolto con 
ogni probabilità da particelle di ghiaccio 
e goccioline d'acqua che si spostano ver- 
so l'alto e verso il basso all'interno del- 
la nube, (L'esatto meccanismo è ancora 
oggetto di dibattito.) Urtando l'una contro 
l'altra, queste particelle possono portar via 
elettroni e quindi caricarsi elettricamente. 
Le cariche positive e negative vengono 
quindi separate dalle correnti ascensiona- 
li e dalla gravità, dando origine al campo 
elettrico. Quando tentiamo di spingere più 
a fondo l'analogia della maniglia, però, 
incontriamo un grosso problema: decenni 
di misurazioni effettuate da palloni, aerei 
e razzi sonda direttamente all'interno delle 
nubi hanno raramente riscontrato campi 
superiori a circa 200.000 volt per metro; 
troppo poco perché l'aria divenga elettri- 
camente conduttiva. 

Fino a non molto tempo fa, ì ricercato- 
ri si erano concentrati su due spiegazioni 
per risolvere il dilemma. In primo luogo, è 
possìbile che all'interno delle tempeste esi- 
stano campi più intensi, ma solo in volumi 
relativamente piccoli, che li renderebbero 
diffìcili da rilevare. Ma per quanto uno sce- 
nario del genere non possa essere escluso 
dalle osservazioni, non è comunque sod- 
disfacente, poiché sostituisce un problema 
con un altro: come fanno le nubi a produr- 
re campi elettrici così intensi in volumi così 
ridotti? La seconda spiegazione deriva da 



In sintesi/ 



a I fulmini hanno sconcertato a lungo i fisici, perché ì campi elettrici all'interno delle 
nubi temporalesche non sembrano avere un'intensità sufficiente a generare una 
scarica di corrente convenzionale. 

■ Nuove osservazioni dei raggi X emessi dai fulmini vanno a sostegno dell'ipotesi che 
il fulmine acceleri in qualche modo gli elettroni fin quasi alia velocità della luce, in un 
fenomeno chiamato scarica disruptiva rapida. 

■ Attualmente è ìn via di allestimento in Florida una schiera di rivelatori di raggi 
X destinali a studiare i processi che promuovono fulmini e ne consentono la 
propagazione. 



esperimenti di laboratorio che mostrano 
come il campo elettrico necessario a pro- 
durre una scarica si riduca significativa- 
mente quando nell'aria sono presenti goc- 
cioline o particelle di ghiaccio, come nei 
temporali. Purtroppo, l'aggiunta di pioggia 
o ghiaccio basta a spiegare solo parte della 
discrepanza; i campi elettrici presenti nei 
temporali sembrano ancora troppo deboli 
per generare una scarica convenzionale. 

L'incertezza permane anche sul modo 
in cui i fulmini riescono a propagarsi 
attraverso l'aria per molti chilometri. Il 
processo inizia con la formazione di una 
scarica guida (leader), un canale caldo che 
può ionizzare l'aria e trasportare la carica 
elettrica su lunghe distanze (si veda il box 
nella pagina a fronte). Fatto interessante, 
la scarica guida non si propaga fino a terra 
in modo continuo, ma al contrario la sua 
traiettoria segue una serie di passi discreti. 
Come esattamente ciò possa accadere, resta 
alquanto misterioso, I tentativi di simulare 
questi processi attraverso modelli compu- 
terizzati non hanno avuto pieno successo 
e questo ha spinto molti ricercatori, me 
compreso, a chiedersi se non avessimo per 
caso dimenticato qualcosa di importante. 
Per esempio, forse considerare il fulmine 
alla stregua di una scarica completamente 
convenzionale, come una scintilla verso 
una maniglia, non è corretto. Esiste infat- 
ti un altro tipo di scarica, più insolito: la 
cosiddetta scarica disruptiva rapida. 

In una scarica convenzionale, tutti gli 
elettroni sì muovono in modo relativa- 
mente lento in quanto sono impediti dalle 
loro costanti collisioni con le molecole del- 
l'aria. Le collisioni creano una resistenza 
analoga a quella che si avverte quando 
si sporge la mano fuori dal finestrino di 
un'automobile in corsa: più veloce proce- 
de l'automobile, più intensa è la resistenza 
aerodinamica, e quando si rallenta la resi- 
stenza diminuisce. Ma se le velocità degli 
elettroni sono abbastanza alte (almeno sei 
milioni di metri al secondo, circa il due per 
cento della velocità della luce) la resisten- 
za diminuisce all'aumentare della velocità 
degli elettroni (si feda l'illustrazione a p. 
69). Se un campo elettrico intenso accelera 
un elettrone ad alta velocità, la resistenza 
diviene minore, il che consente all'elettrone 
di spostarsi ancora più velocemente, ridu- 
cendo ulteriormente la resistenza, e così 
via. Questi elettroni rapidi possono acce- 
lerare Fin quasi a raggiungere la velocità 



COME NASCONO I FULMINI 



Alcuni ritengono che i Fulmini possano essere innescati dai raggi cosmici, particelle di alta energia che bombardano laTerra dallo spazio. 



Molecola . 
d'aria 



V 



4 Un protone in rapido movimento proveniente 

i d al lo sp a z i o s ì scont ra con u n a m ol ecola d' aria 
(in genere azoto o ossigeno] nelle zone più atte 
dell'atmosfera, producendo uno sciame di particelle di 
alta energia. 



Elettrone 
Regione di carica n egativs «seme» di sita 
^'v energia 

. J ai* b 

k Elettrone _ v ■ i 
ripido J *"» -, 
•' ' ' 
SV\ Raggi gemma 

+ + + + + + + + +■ vu 

Regione di carica positiva , j J » j 

ì 



' ) Una volta innescato il 
ZJ fulmine, gli elettroni 
disegnano un canale 
ionizzato chiamato scarica 
guida a passi. A ciascun 
passo, gli elettroni si 
accumulano al le stremiti 
della scarica, creando un 
i ntenso ca m p o I o ca lizzato 
che accelera le particelle. 
Le particelle sìscontrano 
con le molecole dell'aria, 
producendo lampi di 
raggi X. Il processo si ripete 
finché la scàrica guida, che 
può dividersi in più rami, 
raggiunge il suolo. 




' ) Le particelle dello sciame, che comprendono elettroni di alta 
i energia, colpiscono molecole d'aria in una nube temporalesca, 
espellendo altri elettroni di alta energia. Accelerate da campi 
elettrici che si estendono tra regioni di carica positiva e negativa, 
le particelle danno inizio a una cascata di elettroni rapidi, che 
generami raggi gamma transitando attraverso la nube. Questa 
scarica rapida potrebbe fare da catalizzatore per il Fulmine. 



Nube tempora lese a 



Collisione con 
Il molecole d'aria 




66 LE SCIENZE 



443 /luglio 2005 



www.lescienze.it 



LESCIENZE 6? 




Il fulmine disegna i suoi frastagliati 

percorsi emettendo 

raffiche di elettroni ad alta velocità 



Molecola d'aria 



L'elettrone rallenta 



della luce, acquisendo quantità enormi di 
energia e producendo appunto una scarica 
disruptiva rapida. 

Perché questo avvenga, tuttavia, occor- 
re una popolazione di elettroni «seme» 
con alte energie iniziali. Nel 1925, il fisico 
scozzese CXR. Wilson suggerì per primo 
che il decadimento degli isotopi radioat- 
tivi o le collisioni delle particelle dei raggi 
cosmici con le molecole dell'aria potreb- 
bero generare elettroni di alta energia che 
sarebbero accelerati dai campi elettrici 
presenti all'interno delle nubi temporale- 
sche. Il modello di Wilson, però, preve- 
deva che il decadimento radioattivo e le 
collisioni dei raggi cosmici producessero 
un numero di elettroni rapidi troppo esi- 
guo per causare ì fulmini. 

Nel 1961 A.V. Gurevich dell'Istituto di 
fisica Lebedev di Mosca, ipotizzò un altro 
meccanismo per spiegare la produzione 
degli elettroni rapidi, Gurevich dimostrò 
che in campi elettrici molto intensi è pos- 
sibile produrre un gran numero di elettro- 
ni rapidi accelerando direttamente l'onni- 
presente popolazione dì elettroni liberi di 
bassa energia, superando così il problema 
della scarsità di elettroni di alta energia 
evidenziato da Wilson. Per generare gli 
elettroni rapidi, Gurevich usò un metodo 
brutale, in cui il campo elettrico era così 
intenso che alcuni degli elettroni di bassa 
energia erano rapidamente accelerati al di 
sopra della soglia di energia. La difficoltà 
insita in questo meccanismo è che richie- 
de un campo elettrico circa 10 volte più 
intenso del convenzionale campo di scari- 
ca disruptiva: molto più intenso dei cam- 
pi che si osservano nei temporali. In altre 
parole, sembrava che i fisici puntassero in 
una direzione decisamente sbagliata. 

Finalmente nel 1992 è emersa una nuo- 
va idea. Insieme a G.M. Milikh dell'Uni- 
versità del Maryland e R. Roussel-Dupré 
del Los Alamos National Laboratory, 
Gurevich ha proposto il modello a valan- 
ga relativistica di elettroni rapidi (RREA, 
RelatìiHstic Runaway Electron Avalanche). 
In questo scenario, sono gli stessi elettroni 



rapidi a generare altri elettroni «seme» di 
alta energia, scontrandosi violentemen- 
te con le molecole dell'aria e strappando 
via da esse altri elettroni di alta energia. 
Questi ultimi accelerano ed entrano in 
collisione con altre molecole dell'aria, 
producendo nuovi elettroni «seme» di alta 
energia, e così via. Il risultato è una gran- 
de valanga di elettroni di alta energia che 
cresce esponenzialmente con il tempo e 
la distanza. Dato che questo processo può 
essere scatenato anche da un solo elettro- 
ne «seme», il fondo costante di collisioni 
dei raggi cosmici e i decadimenti radioat- 
tivi sarebbero sufficienti a innescare una 
valanga di elettroni rapidi. E finché la 
valanga resta in una regione con un for- 
te campo elettrico, continuerà a crescere 
quasi indefinitamente, dando luogo a una 
scarica disruptiva rapida. 

Inoltre, a differenza della precedente 
ipotesi di Gurevich, questo nuovo model- 
lo di scarica disruptiva rapida richiede un 
campo elettrico pari a un decimo di quel- 
lo necessario per una scarica disruptiva 
convenzionale in aria secca. Alle quote 
tipiche dei temporali, dove la densità del- 
l'aria è inferiore che al livello del mare, il 
campo elettrico necessario per una scarica 
disruptiva rapida è di circa 1 50.000 volt 
per metro, che rientra tranquillamente 
nell'arco di variabilità dei valori misurati 
all'interno delle nubi. In effetti, probabil- 
mente non è una coincidenza che ti mas- 
simo campo elettrico osservato all'interno 
delle nubi e il campo necessario per la 
scarica disruptiva rapida siano pressoché 
equivalenti: i miei calcoli dimostrano che 
quest'ultima potrebbe efficientemente 
scaricare il campo elettrico se esso dovesse 
salire a un livello molto più alto. 

In una scarica normale, tutti gli elet- 
troni hanno basse energie e si spostano 
piuttosto lentamente, per cui la radiazione 
elettromagnetica emessa dalla scintilla si 
estende al massimo nell'ultravioletto. In 
una scarica disruptiva rapida, invece, gli 
elettroni ad alta velocità ionizzano grandi 
numeri di molecole dell'aria e producono 



raggi X e raggi gamma altamente ener- 
getici. (Questo fenomeno è noto come 
Bremsstrahlung, che in tedesco significa 
«radiazione di frenamento».) Di conse- 
guenza, un modo per verificare se si è in 
presenza di una scarica disruptiva rapida 
è la ricerca di raggi X, 

Cacciatori di saette 

Spinti dall'ipotesi di Wilson e successi- 
vamente dal lavoro di Gurevich, i ricerca- 
tori tentano di osservare raggi X emessi da 
temporali e fulmini sin dagli anni trenta. 
Queste misurazioni sono molto impegna- 
tive e fino a poco tempo fa hanno prodot- 
to risultati perlopiù ambigui. Un problema 
è che i raggi X non percorrono lunghe 
distanze nell'atmosfera e normalmente 
sono assorbiti entro poche centinaia di 
metri dalla sorgente di emissione. Un altro 
ostacolo è che i temporali sono ambienti 
rumorosi dal punto di vista elettromagne- 
tico. I fulmini, in particolare, emettono 
grandi quantità di rumore in radiofre- 
quenza, causando il familiare crepitio nelle 
radio a modulazione di ampiezza a distan- 
za di molti chilometri. Il rilevamento dei 
raggi X comporta la registrazione di piccoli 
segnali elettrici; tentare misure simili nel- 
le vicinanze di un fili mine è come cercare 
di seguire una conversazione in un locale 
affollato. Dato che è difficile distinguere 
segnali elettrici reali prodotti da raggi X 
da segnali spuri prodotti da emissioni in 
radiofrequenza, molti dei primi risultati 
non furono accettati senza resistenza. 

La situazione si fece più interessante 
negli anni ottanta, quando G.K. Parks, M. 
McCarthy e loro collaboratori all'Universi- 
tà di Washington effettuarono osservazio- 
ni da aereo all'interno dei temporali. Più 
tardi, K.B. Eack, ora al New Mexico Insti- 
tute of Mining and Technology (NMT), 
fece una serie di misurazioni con palloni 
sonda all'interno di nubi temporalesche. 
Le ricerche fornirono indizi convincenti 
che i temporali producevano occasional- 
mente grandi scariche di raggi X; la loro 




IO 4 IO 5 IO 6 10 ? 

Energia dell'elettrone (elettronvolt) 

GU ELETTRONI RAPIDI aprono la via allo scoccare dei fulmini. A basse energie, gli elettroni perdono più 
energia in seguito alle collisioni con le molecole dell'aria di quanta ne acquisiscano per l'azione del 
campo elettrico. Ma dato che questa resistenza diminuisce a energie più alte, il campo elettrico può 
accelerare elettroni di alta energia fin quasi alla velocità della luce. 



sorgente non poteva essere individuata con 
precisione, ma le radiazioni sembravano 
essere associate ai campi elettrici potenzia- 
ti all'interno delle nubi. Fatto interessante, 
a volte le emissioni di raggi X iniziavano 
appena prima che venisse osservato il ful- 
mine e si arrestavano una volta che era 
scoccato, forse perché il fulmine cortocir- 
cuitava i campi elettrici necessari a produr- 
re la scarica disruptiva rapida. 

Non si conoscono altri meccanismi in 
grado di produrre quantità così grandi di 
raggi X nella nostra atmosfera. La respon- 
sabilità non può essere di altri fenomeni 
associati ai fulmini; per quanto i fulmini 
possono riscaldare l'aria fino a 30.000 gra- 
di Celsius - cinque volte la temperatura alia 
superfìcie del Sole - a questa temperatura 
non vengono pressoché prodotti raggi X. 

La connessione diretta tra raggi X 
e fulmini è stata trovata finalmente nel 
2001, quando C.B. Moore e i suoi colleghi 
all' NMT hanno riferito di aver osservato 
radiazioni ad alta energia, presumibUmen- 
te raggi X, provenienti da fulmini natura- 
li che avevano colpito la vetta di un'alta 
montagna. A differenza delle precedenti 
osservazioni da aereo e da palloni sonda, 
queste radiazioni ad alta energia appari- 



vano prodotte dal fulmine stesso, e non 
dai campi elettrici a grande scala presenti 
all'interno della nube temporalesca. Inol- 
tre, le emissioni sembravano verificarsi 
durante la prima fase del fulmine, quella 
costituita dal movimento della scarica gui- 
da dalla nube al suolo. Questa osservazione 
era un qualcosa di totalmente nuovo. 

È stato a questo punto che sono entrato 
in gioco io. Come fisico, mi sono sempre 
interessato alle modalità di produzione dei 
raggi X e dei raggi gamma. Benché queste 
radiazioni siano comuni nello spazio, dove 
il vuoto consente alle particelle di alta ener- 
gia di viaggiare senza impedimento, sulla 
Terra sono molto più rare. Sono quindi 
rimasto affascinato dal modello della sca- 
rica disruptiva rapida di Gurevich, Milikh 
e Roussel-Dupré, secondo cui lo stesso tipo 
di raggi X prodotti da eventi come i brilla- 
menti solari poteva aver origine anche da 
temporali e fulmini. Studiando i temporali 
della zona in cui vìvo, ho deciso di verifi- 
care per conto mio se questi presunti raggi 
X esistevano veramente. 

Nel 2002, grazie a un finanziamento 
della National Science Foundation, il mio 
gruppo al Florida Institute of Technology, 
in collaborazione con Martin A. Uman e 



Vladimir A, Rakov dell'Università della 
Florida, ha iniziato una campagna siste- 
matica per cercare le emissioni di raggi 
X da fulmini. Per ridurre il problema dei 
segnali elettromagnetici spuri, abbiamo 
collocato rivelatori sensibili di raggi X 
all'interno di spessi contenitori di allu- 
minio progettati per escludere l'umidità, 
la luce, e il rumore in radiofrequenza. I 
nostri strumenti sono stati poi messi a 
punto all'International Center for Light- 
ning Research and Testing (ICLRT) di 
Camp Blanditi g, in Florida, che è attrezza- 
to per misurare, tra l'altro, i campi elettrici 
e magnetici e le emissioni ottiche associati 
ai fulmini. Inoltre, il centro è in grado di 
innescare artificialmente fulmini da tem- 
porali naturali con l'uso di piccoli razzi. 

Quando un temporale sovrasta l' ICLRT 
e il campo elettrico al suolo raggiunge 
diverse migliaia di volt per metro, i ricer- 
catori lanciano un razzo della lunghezza 
dì un metro da un tubo d'acciaio in cima 
a una torre di legno. Il razzo srotola una 
bobina di filo di rame rivestito in Kevlar, 
un'estremità del quale resta attaccata al 
suolo. Quando il razzo arriva a 700 metri 
di quota, il filo incrementa il campo elet- 
trico alla punta del razzo, provocando una 
scarica guida che si propaga verso l'alto 
facendosi strada all'interno della nube 
temporalesca. La corrente elettrica che 
risale da terra nella scarica guida vaporiz- 
za rapidamente il filo. Circa metà dei lanci 
riesce a innescare un fulmine dalle nubi 
sovrastanti, e la folgore colpisce in genere 
il tubo di lancio del razzo. 

Sia i fulmini naturali sia quelli provo- 
cati dall'uomo di solito sono composti 
da diversi «colpi». Per i fulmini artificiali, 
ciascun colpo inizia come una colonna di 
carica che si propaga verso il basso, detta 
dart leader (freccia guida), che in prossimi- 
tà del suolo, segue più o meno il percorso 
del razzo e del filo di innesco. Il dart leader 
porta in basso carica negativa dalla nube 
e muovendosi ionizza il canale. Una vol- 
ta che il dart leader si connette a terra, si 
crea un corto circuito e un grande impulso 
di corrente, detto colpo di ritorno, scorre 
attraverso il canale. La corrente nel colpo 
di ritorno riscalda rapidamente il canale, 
causando la luce visìbile che vediamo, e 
la successiva rapida espansione dell'aria 
calda provoca il tuono. Dopo il colpo di 
ritomo, può seguire un altro dart leader, e 
l'intero processo si ripete. La rapida succes- 



68 LESCIENZE 



443 /luglio 2005 



www.lescienie.it 



LESCIENZE 69 




Queste ricerche potrebbero risolvere 

il rompicapo affrontato 

da Benjamin Franklin 250 anni fa 



sione di colpi è ciò che provoca il tremolio 
del canale del fulmine. 

Nel fulmine naturale, il ruolo del razzo è 
svolto da uno stepped leader (scarica guida 
a passi), che fa procedere il percorso ioniz- 
zato per passi zigzaganti dalla nube al suo- 
lo, I successivi colpi del fulmine naturale, 
tuttavia, sono scatenati da un dart leader, e 
ciò li rende molto simili ai colpi del fulmi- 
ne innescato artificialmente. Il vantaggio 
dì studiare quest'ultimo è che si possono 
controllare il tempo e il luogo esatti del 
colpo di fulmine e l'esperimento può essere 
ripetuto più volte. 

Data la lunga storia di risultati negativi 
e ambigui sui raggi X, quando abbiamo 
approntato i nostri strumenti all'ICLRT per 
la prima volta non mi aspettavo di misu- 
rare una qualsiasi emissione di raggi X dai 
fulmini. Con mia grande sorpresa, abbiamo 
invece scoperto subito che i fulmini inne- 
scati artificialmente producono raggi X in 
enorme quantità pressoché in ogni istante. 
Anzi, i lampi di raggi X erano così intensi 
che i nostri strumenti rimanevano tempo- 
raneamente accecati dalle radiazioni. 

Esperimenti condotti l'anno seguente 
hanno dimostrato che l'emissione di raggi 
X è prodotta dai dart leader del fulmine, 
forse con qualche contributo dall'inizio 
dei colpi di ritorno. Le energie dei raggi X 
arrivano a circa 250.000 elettronvolt, pari 
a circa due volte l'energia di una radiogra- 
fìa al torace. Inoltre, l'emissione di raggi X 
non è continua ma avviene in rapidi scatti 
distanziati di un milionesimo di secondo. 
Se gli esseri umani avessero la vista a raggi 
X come Superman, un fulmine ci appari- 
rebbe del tutto diverso da come siamo abi- 
tuati a vederlo: mentre la scarica guida del 
fulmine si propaga verso il basso, osser- 
veremmo una rapida serie di lampi chiari 
in discesa dalle nubi. I lampi diverrebbero 
sempre più forti con l'avvicinarsi al suolo, 
terminando in un'esplosione molto intensa 
in corrispondenza dell'istante di inizio del 
colpo di ritorno. L'impulso di corrente suc- 
cessivo sarebbe brillante in luce visibile, 
ma apparirebbe nero nei raggi X. 



L'osservazione di raggi X dai fulmini 
indica che qualche forma di scarica disrup- 
tiva rapida deve essere coinvolta per acce- 
lerare gli elettroni a sufficienza da produr- 
re radiazione di Bremsstrahlung. Tuttavia, 
le nostre misurazioni non quadrano del 
tutto con il modello RREA sviluppato da 
Gurevich, Milikh e Roussel-Dupré, da cui 
erano partiti i nostri esperimenti. I raggi 
X che avevamo osservato avevano ener- 
gie molto più basse di quelle previste dal 
modello della valanga, e l'intensità degli 
scatti era molto più alta del previsto. In 
realtà, i risultati suggeriscono che i campi 
elettrici prodotti dalle scariche guida siano 
molto, molto più grandi di quanto si rite- 
nesse possibile in precedenza. Per ironia 
della sorte, i nostri esperimenti sembrano 
indicare finora che il meccanismo operan- 
te nei fulmini guida è più vicino al vecchio 
modello della scarica disruptiva rapida 
proposto da Gurevich nel 1961 : il modello 
che richiedeva la presenza di un campo 
elettrico troppo grande, e per questo era 
stato tenuto in poco conto. Come faccia- 
no esattamente i fulmini a generare campi 
elettrici così intensi rimane un mistero, ma 
nuove osservazioni nei raggi X potrebbero 
offrire qualche indìzio. 

Dopo la scoperta dei raggi X emessi 
dai fulmini artificiali, abbiamo osserva- 
to anche molti colpi di fulmine naturali. 
Questi dati hanno mostrato belle emissio- 
ni dì raggi X dalla fase di stepped leader, 
confermando le precedenti misurazioni 
deH'NMT. Inoltre, ì raggi X arrivano in 
rapide raffiche esattamente negli istanti in 
cui il leader avanza, il che dimostra che la 
scarica disruptiva rapida è coinvolta nel 
processo di avanzamento per passi, deter- 
minando dove andrà a colpire il fulmine e 
in che modo sì ramificherà. Un meccani- 
smo simile è anche operante durante le fasi 
dì dart leader dei colpì successivi. 

In breve, le emissioni di raggi X dai ful- 
mini naturali sono molto simili a quelle 
dei fulmini innescati artificialmente. Sta 
diventando chiaro che la scarica disrup- 
tiva rapida è un fenomeno comune nella 



nostra atmosfera. A dispetto del fatto che 
le molecole dell'aria impediscono l'acce- 
lerazione degli elettroni veloci, abbiamo 
evidenze di scarica disruptiva rapida anche 
in prossimità del suolo, dove la densità 
dell'aria è massima. Pertanto, a quote di 
temporale la scarica disruptiva rapida può 
verificarsi anche più frequentemente. 

Dentro il temporale 

Come si innescano i fulmini all'inter- 
no delle nubi temporalesche? Negli ulti- 
mi anni, sono stati costruiti modelli che 
mostrano in che modo gli sciami di parti- 
celle creati dagli impatti dei raggi cosmici 
sull'atmosfera potrebbero dare inizio alla 
scarica disruptiva rapida. Dato che grandi 
valanghe di elettroni rapidi possono pro- 
dursi a partire anche da un solo elettrone 
«seme» di alta energia, la scarica innesca- 
ta da un grande sciame di raggi cosmici, 
dove milioni di particelle di alta energìa 
arrivano simultaneamente, deve essere 
enorme. Una tale scarica potrebbe gene- 
rare un incremento localizzato del campo 
elettrico in corrispondenza del fronte della 
valanga, dato il grande incremento del- 
la carica elettrica in quella sede. Questo 
incremento può svolgere lo stesso ruolo 
del dito che sfiora la maniglia, aumentan- 
do brevemente il campo elettrico fino al 
punto in cui può avere luogo una scarica 
disruptiva convenzionale. 

Un'affascinante prova a conferma del- 
l'ipotesi dì scarica disruptiva rapida all'in- 
terno delle nubi temporalesche è venuta 
dagli esperimenti condotti la scorsa esta- 
te. Durante l'ultimo lancio di razzo della 
stagione, abbiamo colto casualmente un 
enorme scoppio di radiazioni a energia 
molto alta - raggi gamma, non raggi X 
- usando tre rivelatori collocati a 650 metri 
dal canale del fulmine. Le energie dei sin- 
goli fotoni di raggi gamma arrivavano a 
oltre 10 milioni di elettronvolt: circa 40 
volte le energie dei raggi X precedente- 
mente osservati dai fulmini guida. 

In base alle misurazioni della corrente 




L'INNESCO ARTIFICIALE DI UN FULMINE all'ICLRT, in Florida, avviene lanciando un piccolo razzo da 
una torre in legno [nel riquadro] durante un temporale. Salendo, il razzo srotola un filo che conduce 
corrente dal suolo, creando un percorso per il fulmine. Strumenti collocati nelle vicinanze misurano 
l'energia e l'intensità dei raggi X emessi. 



L'AUTORE 



JOSEPH R. DWYER è professore associato di fisica e scienze dello spazio al Florida Institute of 
Technology. Dopo aver conseguito il dottorato in fisica all'Università di Chicago nel 1994, ha 
lavorato come ricercatore a 1 1 a C olu m b ia Un i vers ity e a II' Un i vers it à d el M ary 1 a n d p er p oi t ra sf e- 
rirsi in Florida nel 2000. Ha lavorato nel campo della fisica dei raggi cosmici, dell'astronomia a 
raggi X e raggi gamma e della fisica spaziale. 



PER APPROFONDIRE 



MACGORMAN D.R. e RUST W.D., The Elearical Nature o/Storms, Oxford University Press, 
Oxford, 1998. 

UMAN M.A., The Ugbtning Discharge, Dover Publications, 2001. 

DWYER IR, e altri, Energetic Radiatìon Praduced durìng Rocket-TriggeredL'tghtning, in «Scien- 
ce», Voi. 299, pp. 694-69?, 31 gennaio 2003, 

RAK0VV.A. e UMAN M.A., Lightning: Physksand Effects, Cambridge University Press, Cam- 
bridge, 2003. 



del canale del fùlmine, dei campi elettrici 
e alle proprietà dei raggi gamma, abbia- 
mo dedotto che la sorgente delle emissio- 
ni fosse probabilmente a molti chilometri 
di quota nella nube temporalesca. Non ci 
aspettavamo di osservare raggi gamma 
da quell'altitudine in quanto l'atmosfera 
assorbe tali radiazioni, ma a quanto pare 
l'intensità alla sorgente era così grande 
che alcuni fotoni erano in grado di farsi 
strada fino al suolo. 

Questa scoperta suggerisce che possa 
essersi verificata entro la nube tempora- 
lesca una imponente scarica disruptiva 
rapida, in un processo correlato all'in- 
nesco del fulmine artificiale. Le nostre 
osservazioni dimostrano che è possibile 
studiare questo fenomeno al suolo, il che 
è molto più semplice che inviare in quota 
rivelatori su aerei o palloni sonda. Inol- 
tre, alcuni ricercatori hanno recentemen- 
te riferito che la sonda spaziale Reuven 
Ramaty High Energy Solar Spectroscopic 
Imager (RHESSI) ha rilevato simili scoppi 
di raggi gamma associati a temporali da 
un'orbita aita 600 chilometri! 

Grazie al finanziamento extra concesso 
dalla National Science Foundation, stiamo 
ora aumentando il numero di strumenti 
a raggi X delI'ICLRT da cinque a più di 
36, coprendo un chilometro quadrato del 
sito di Camp Blanding. Questo dovrebbe 
migliorare la nostra capacità di studiare 
i fulmini naturali e anche quelli innescati 
artificialmente e aumentate le probabili- 
tà di rilevare più scoppi di raggi gamma 
dalle nubi temporalesche. Le emissioni di 
raggi X e di raggi gamma possono servire 
da sondaggio per aiutare a determinare i 
campi elettrici in regioni che sono altri- 
menti molto difficili da misurare. ! risultati 
dovrebbero consentirci di capire meglio il 
processo di scarica disruptiva che dà inizio 
al fulmine e ne facilita la propagazione. 

L'uso dì raggi X per studiare i fulmini 
è ancora ai primi passi, e ogni volta che 
effettuiamo un esperimento scopriamo 
qualcosa dì nuovo. Abbiamo già capito 
che il fulmine non è una semplice scintilla 
come quella che scocca quando si sfiora 
una manìglia, ma comporta un tipo più 
insolito di scarica che produce elettroni 
rapidi e raggi X. E poiché i raggi X ci con- 
sentono di guardare al fulmine in modo 
inedito, questa ricerca potrebbe finalmente 
aiutarci a risolvere il rompicapo affrontato 
da Benjamin Franklin 250 anni fa. m 



?0 LE SCIENZE 



443/luglio200S 



www.lescienze.it 



LESCIENZE ?1 



-• . 




mM 






I 



Ai primordi del sistema solare le collisioni surriscaldarono 
molti asteroidi fino a temperature estremamente elevate 



di Alan E. Rubin 



• 



w 







¥> 



»;v* 



li oggetti grandi trattengono il calore meglio di quelli piccoli. Il calore interno 

della Terra, per esempio, è generato in gran parte da quattro radioisotopi a . 

lungo tempo di dimezzamento- potassio 40, torio 232, uranio 235 e uranio , 
-• 238 - che decadendo in isotopi stabili emettono energia per miliardi di anni. 

Le grandi dimensioni del nostro pianeta [che ha un diametro di circa 12740 
, chilometri) fanno sì che il calore endogeno sia dissipato in maniera relativamen- 
te lenta: questo spiega perché la Terra ha un nucleo esterno allo stato fuso e perché in superficie si veri- 
ficano eruzioni vulcaniche. I corpi più piccoli, invece, hannoun rapporto più elevato tra area superficiale e 
volume, e quindi si raffreddano più rapidamente irradiando calore nello spazio. La Luna, per esempio, è gran- 
de solo un quarto della Terra, quindi perde calore molto più velocemente. Di conseguenza, sul nostro satellite 
le grandi eruzioni di lava basaltica, la più comune roccia vulcanica lunare, sono cessate quasi tre miliardi di'an- 
ni fa. La dissipazione di calore è ancora più rapida nel caso dei piccoli asteroidi rocciosi che si trovano nel siste- 
ma solare interno, perla maggior parte tra le orbite di Marte e di Giove. Vesta, il terzo asteroide per dimensioni, ha 
un diametro di 516 chilometri, che si traduce in un rapporto area superficiale/volume 25 volte maggiore di quello terre- 
stre. Ma vi e un paradosso; a dispetto della sua taglia ridótta, Vesta presenta chiare tracce di una passata attività geologi- 
ca. Le osservazioni spettroscopiche della sua superficie, indicano che è ricoperto da basalti di' origine vulcanica; 'se he può con 
eludere che un tempo l'interno di Vesta era allo stato fuso. 







1 




?2 LESCIENZE 



443 /luglio 2005 



L€ SCIENZE 73 



A generare questo calore non possono 
essere stati ì radioisotopi a lungo tem- 
po di dimezzamento; considerando le 
concentrazioni primordiali degli isotopi 
in questione e il tasso atteso dì dissi- 
pazione di calore, i calcoli dimostrano 
che il decadimento radioattivo non può 
aver provocato la fusione dell'interno di 
Vesta, né di qualsiasi altro asteroide. Il 
responsabile deve essere un altro mec- 
canismo dì riscaldamento, ma quale? È 
una domanda che inquieta i planetologi 
da decenni. 

In anni recenti, tuttavia, una possibile 
risposta è emersa dalle osservazioni da 
satellite, in particolare quelle compiu- 
te dalla missione Near Earth Asteroid 
Rendezvous (NEAR). Durante l'incontro 
ravvicinato con l'asteroide Mathilde, nel 
1997, le misure dell'attrazione di gravità 
subita dalla sonda hanno rivelato che la 
massa dell'asteroide era sorprendente- 
mente bassa. La conclusione degli scien- 
ziati fu che la densità molto ridotta dì 
Mathilde indicava che era un «mucchio 
di pietre» poco compatto, con lacune e 
vuoti nell'interno della struttura. Questa 
scoperta ha rimesso in discussione le teo- 
rie correnti sulla dinamica degli asteroidi 
sollevando la possibilità che le colli- 
sioni tra piccoli corpi rocciosi possano 
aver generato grandi quantità di calore. 
(Probabilmente, però, Mathilde non si 
trovò mai allo stato fuso.) L'ipotesi è con- 
troversa, ma è sostenuta da nuovi studi 
sulle meteoriti, che non sono altro che 
frammenti di asteroidi precipitati sulla 
Terra. Se si dimostrasse corretta, la teoria 
del riscaldamento per collisione potrebbe 
risolvere un annoso mistero astronomico, 
e migliorare anche le nostre conoscenze 
sui primordi del sistema solare. 

Meteoriti alla brace 



ne asteroidale è stata suddivisa in classi 
tassonomiche (un lavoro recente elenca 
26 dì queste classi). 

Nella parte interna della fascia degli 
asteroidi predominano i corpi di classe 
S, un gruppo variegato che compren- 
de, con ogni probabilità, sia oggetti che 
nella loro storia andarono incontro a 
fusione sia altri che non si trovarono mai 
allo stato fuso. Nella parte esterna della 
fascia - a distanze dal Sole superiori a 
450 milioni di chilometri - gli Oggetti 
più comuni sono asteroidi di classe C, P 
e D: tutti sembrano corpi primitivi, mai 
soggetti a fusione. Un notevole inconve- 
niente dell'osservazione spettroscopica a 
distanza è che si possono esaminare solo 
le regioni più superficiali di un oggetto. 
In alcuni casi, lo strato esterno dì polvere 
di un asteroide può non essere rappre- 
sentativo della composizione della cro- 
sta sottostante. 

Un'alternativa è analizzare le meteo- 
riti che provengono dalla fascia degli 
asteroidi. Staccatesi dal corpo d'origine 
a causa dì un impatto, queste rocce si 
sono spostate gradualmente in orbite 
che incrociavano quella della Terra e 
sono state infine catturate dalla gravità 
del nostro pianeta. (La grande maggio- 
ranza delle decine di migliaia di meteo- 
riti conservate nelle collezioni di musei 
e università proviene dalla fascia degli 
asteroidi; si ritiene che soltanto 60 o 70 
esemplari si siano staccati dalla Luna o 
da Marte.) 

Le meteoriti del tipo più comune sono 
le condriti, gran parte delle quali contie- 
ne molte piccole sfere chiamate condruli 
(sì veda il boi a p. 76}. Composti preva- 
lentemente da minerali silicatici e con un 
diametro tipico di un millimetro o meno, 
i condruli sì formarono quasi 4,6 miliardi 
di anni fa nella nebulosa solare - la nube 



di gas e polvere dalla quale ebbe orìgine 
il sistema solare - e in seguito divennero 
i principali costituenti degli asteroidi che 
iniziavano ad aggregarsi. 

È certo che !e condriti non si trovaro- 
no mai sottoposte allo stato fuso dopo 
la fonnazione degli asteroidi da cui pro- 
vengono, perché questo avrebbe distrut- 
to i condruli. Tuttavia, molte condriti 
mostrano tracce dì riscaldamento fino a 
temperature inferiori ai punto di fusione 
dei condruli. Le condriti si distinguono 
in sei tipi in base all'entità dei metamor- 
fismo termico o dell'alterazione a ope- 
ra dell'acqua a cui sono state soggette 
dall'epoca della loro formazione. Le più 
primitive sono le condriti di tipo 3: i 
grani di minerali che contengono non 
si sono mai ricristallizzati a causa di un 
riscaldamento, Queste rocce presenta- 
no anche abbondanze moderatamente 
elevate dì sostanze volatili (tra cui gas 
nobili e acqua) e contengono numerosi 
granelli presolarì (particelle di polvere 
formatesi in epoche molto remote nel- 
l'alta atmosfera di altre stelle e rimaste 
inalterate per tutta la storia del sistema 
solare). Queste caratteristiche indicano 
che le condriti di tipo 3 non si riscaldaro- 
no mai oltre i 400-660 gradi Celsius. 

Ma anche se non sono mai state espo- 
ste a temperature elevate, molte condriti 
di tipo 3 furono alterate per azione del- 
l'acqua mentre facevano ancora parte 
degli asteroidi originari. Quest'acqua 
poteva provenire da cristalli di ghiaccio 
che si fusero quando le rocce si riscal- 
darono sopra gli zero gradi Celsius, o 
da silicati idrati che persero la propria 
acqua a temperature di alcune centinaia 
di gradi Celsius. Le condriti dei tipi 1 e 
2 differiscono dal tipo 3 soprattutto per 
maggiore alterazione a opera dell'acqua, 
con ossidazione di gran parte del ferro e 



Uno degli strumenti fondamentali 
per le indagini sugli asteroidi è la spet- 
troscopia: gli astronomi confrontano 
gli spettri della luce riflessa dai corpi 
rocciosi con gli spettri dì riflettanza 
determinati in laboratorio per vari tipi 
di rocce. I diversi minerali assorbono e 
riflettono luce di lunghezze d'onda dif- 
ferenti; il basalto, per esempio, assorbe 
fortemente la radiazione appena oltre 
l'estremità rossa dello spettro ottico. 
Grazie alla spettroscopia, la popolazio- 



. Lo studio degli asteroidi mostra che, a dispetto delle loro piccole dimensioni, 
questi corpi raggiunsero temperature elevate nelle prime fasi di storia del 
sistema solare. 

È stato ipotizzato che a causare il riscaldamento degli asteroidi sia stato un 
radioisotopo dell'alluminio a breve tempo di dimezzamento, ma nuovi calcoli 
indicano che il decadimento radioattivo, da solo, non sarebbe bastato. 

■ Le collisioni tra asteroidi porosi potrebbero aver generata il calore aggiuntivo. 
Lesame delle meteoriti mostra che impatti di alta energia potrebbero aver 
riscaldato morti asteroidi in epoca successiva alla loro formazione. 



74 LE SCIENZE 



443 /luglio 2005 



RELITTI PRIMORDIALI 



4,5 miliardi di anni fa, quai. 
nella nebulosa solare iniziò 
l'aggregazione di corpi race 
Nel 199? la sonda Near Ean 
Asteroid Rendezvous (NEAf 
ebbe un incontro ravvicinai 
con Mathilde [a destro} e si 
che questo asteroide è in re 
un cumulo di pietra porosa 
deformato da violenti impai 
2000, NEAR è entrata in ori 
intomo a Eros (sotto), un ci 
più piccolo e denso, cospar: 




del nichel. Il contenuto d'acqua (in peso) 
delle meteoriti è pari all' 1 1 per cento cir- 
ca nelle condriti di tipo 1 , al 9 per cento 
circa in quelle dì tipo 2, e al 2 per cento 
o meno in quelle di tipo 3. Le condriti 
dei tipi 4-6 mostrano livelli crescenti di 
metamorfismo termico. Massicci feno- 
meni di ricristallizzazione hanno fatto sì 
che ì condruli e i grani di minerali adia- 
centi nella matrice - il materiale in cui 
sono inglobati i condruli - diventassero 
più irregolari e interferissero reciproca- 
mente. Oltre a ciò, il riscaldamento ha 
distrutto buona parte dei grani presolari e 
ha ridotto moltissimo il contenuto di gas 
nobili e acqua nelle rocce. Queste condri- 
ti sembrano aver raggiunto temperature 
comprese tra 600 e 950 gradì Celsius. 

Ma anche altre classi di meteori- 
ti presentano tracce di fusione. Se un 
asteroide condritìco fonde totalmente, i 
metalli e i silicati formano liquidi immi- 
scibili: si separano in base alla densità, 
esattamente come fanno olio e acqua. Il 
ferro e il nichel liquidi, ad alta densità, 
sprofondano nel nucleo dell'asteroide 
e cristallizzano lentamente via via che 
esso sì raffredda. Al di sopra del nucleo, 
i silicati solidificano in un mantello roc- 
cioso, la cui parziale fusione produce 
basalti che possono risalire in superficie 
e formare una crosta. Ne risulta quin- 
di un corpo differenziato, e sembra che 
molte meteoriti provengano da asteroidi 
di questo tipo. Gran parte delle meteoriti 
ferrose - le più grandi e pesanti tra le 
rocce di origine extraterrestre rinvenute 
sulla Terra - sono frammenti del nucleo 
di asteroidi che hanno subito fusione. Si 
ritiene che molte delle meteoriti di com- 
posizione mista, roccioso- ferrosa, pro- 
vengano dal confine tra nucleo e man- 
tello, mentre un altro raggruppamento, 
quello delle eucriti, sembra aver avuto 
origine nella crosta. 

In totale, oltre il 90 per cento del- 
le meteoriti di provenienza asteroidale 
reca tracce di fusione (per esempio quel- 
le ferrose, quelle miste e le eucriti) o di 
significativo metamorfismo (le condriti 
di tipo 4, 5 e 6). E dunque chiaro che 
molti asteroidi un tempo erano assai 
caldi. Ma quale meccanismo può aver 
innalzato a tal punto la temperatura di 
questi corpi rocciosi se erano troppo pic- 
coli per trattenere il calore generato dal 
decadimento radioattivo? 



www.lescienie.it 



LESCIENZE ?5 



Il ruolo dell'alluminio 

Una possibile soluzione fu proposta 
mezzo secolo fa dal Nobel per la chimi- 
ca HarolrJ Urey, il quale ipotizzò che a 
riscaldare gli asteroidi fosse stato il deca- 
dimento di un isotopo dell'alluminio dal 
tempo di dimezzamento relativamente 
breve, l'alluminio 26 ( 26 A1). Al contrario 
del più comune alluminio 27 ( 27 A1), che 
ha un neutrone in più, 26 AI è instabile, e 
decade in magnesio 26 ( 26 Mg) liberan- 
do energia. Il tempo di dimezzamento di 
26 Al è di 730.000 anni, migliaia di volte 
più breve di quello degli isotopi a lun- 
ga vita. A causa di un decadimento cosi 
rapido, minuscole quantità di 26 Al posso- 
no innalzare drasticamente la temperatu- 
ra anche di un piccolo corpo prima che 
il calore venga disperso nello spazio. Ma 
non è un riscaldamento duraturo; nell'ar- 
co di qualche milione di anni quasi tutto 
l'allumìnio 26 si trasforma in 26 Mg. 

Secondo alcuni scienziati, l'allumi- 
nio 26 del sistema solare sarebbe stato 
prodotto da reazioni nucleari nell'in- 
terno di un'altra stella e poi disperso da 
un'esplosione di supernova, che intro- 
dusse l'isotopo nella nebulosa solare 
circa 4,6 miliardi di anni fa. In effetti, 
è stato teorizzato che sia stata proprio 
l'onda d'urto di questa supernova a dare 
inizio al collasso della nube di gas da cui 
si sono formati il Sole e i pianeti. Questo 
evento avrebbe disperso 26 A1 in maniera 
uniforme in tutta la nebulosa, fornendo 
così una fonte di calore ai corpi roccio- 
si che si andavano assemblando a varie 
distanze dal Sole. Se l'abbondanza del 
radioisotopo fosse stata sufficientemen- 
te alta, alcuni asteroidi potrebbero aver 
subito fusione poco dopo essersi formati. 
Negli asteroidi che si aggregarono più 
tardi, e quindi incorporarono quantità 
inferiori di 26 A], il riscaldamento causato 
dal radioisotopo potrebbe aver generato 
una struttura a cipolla: dato che l'in- 
terno dell'asteroide sarebbe stato 
più lento a raffreddarsi rispetto 
all'esterno, le rocce del nucleo 
presenterebbero il metamor- 
fismo più accentuato. Rocce 
dal metamorfismo progres- 
sivamente meno spinto (con- 
driti di tipo 5, 4 e 3) formereb- 
bero gusci concentrici più vicini alla 
superficie dell'asteroide. 



Per verificare questa ipotesi, alcuni 
scienziati hanno cercato nelle meteoriti 
quantità insolitamente elevate di 26 Mg, 
il prodotto del decadimento di 26 A1. In 
particolare, si tenta di individuare un 
eccesso di 26 Mg in minerali delle meteo- 
riti che contengono abbondante allumi- 
nio, ma non molto magnesio. Negli studi 
più recenti, sono stati analizzati minerali 
ricchi dì alluminio come l'anortite e l'hi- 
bonite usando una microsonda ionica, 
che bombarda il campione con un fascio 
ionico focalizzato per liberarne ioni 
secondari dalla superficie. Lo strumento 
dirige gli ioni secondari verso uno spet- 
trometro di massa che li identifica. 

Queste indagini hanno rivelato solidi 
indizi a favore di un'antica presenza di 
2G A1 nelle cosiddette inclusioni refratta- 
rie, ossia minuscoli aggregati di mine- 
rali, ricchi di calcio e alluminio, inglo- 
bati accanto ai condruli nelle meteoriti 
condritiche. Dato che i minerali di questi 
aggregati si formano a temperature ele- 
vate - almeno 1180 gradi Celsius - sì 
può presumere che le inclusioni refrat- 
tarie risalgano ai primordi della storia 
del sistema solare, prima che la nebu- 



losa solare si raffreddasse in maniera 
significativa. Nella maggior parte delle 
inclusioni studiate, sì è determinato che 
l'abbondanza di 26 A1 all'epoca della loro 
formazione - espressa come rapporto tra 
26 A1 e il più comune 27 A1 - era pari a 
circa 4,5 x IO -5 . Questo valore è stato 
chiamato rapporto canonico. 

Data la sua abbondanza relativamente 
elevata, 26 A1 potrebbe aver causato un 
riscaldamento significativo. Il rapporto 
tra i due isotopi è uguale nelle inclusioni 
che si trovano in quasi tutte le classi di 
condriti. Ma le inclusioni refrattarie rap- 
presentano solo una piccola frazione del- 
l'allumìnio presente nelle condriti: ve ne 
è molto di più nei condruli, che in quasi 
tutte le classi di questo tipo di meteoriti 
contengono il 30-90 per cento dell'allu- 
mìnio. Perciò i condruli dovrebbero aver 
contribuito in misura molto superiore 
che non le inclusioni refrattarie al riscal- 
damento a opera dei radioisotopi. 

Nel 2000 Noriko Kìta del Geoiogìcal 
Survey of Japan e collaboratori esami- 
narono i condruli delle condriti ordinarie 
- una classe che comprende ì tre gruppi 
più comuni di questo tipo di meteoriti, 



FRAMMENTI DI CIELO SULLA TERRA 



chiamati H, L e LL - e scoprirono che il 
rapporto medio tra 26 A1 e 27 A1 all'epoca 
della loro formazione era appena 7,4 x 
IO -6 , ovvero circa un sesto del rapporto 
canonico. Data la velocità di decadimen- 
to di 26 A1, il rapporto iniziale più basso 
nei condruli implica che questi oggetti sì 
formarono 1-2 milioni di anni dopo l'ori- 
gine delle inclusioni refrattarie (ammet- 
tendo che il radioisotopo avesse davvero 
una distribuzione omogenea nel sistema 
solare primordiale). E poiché gli asteroidi 
condritici si formarono dopo i condruli 
stessi, il rapporto iniziale tra 26 A1 e 27 A1 
in questi ultimi pone un limite superiore 
alla quantità di radioisotopo disponibile 
per riscaldare i corpi rocciosi. 

Sembra improbabile che questa abbon- 
danza sia stata interamente responsabile 
del riscaldamento rilevato nelle meteoriti. 
Modelli termici indicano che, anche se gli 
asteroidi si fossero aggregati immediata- 
mente dopo la formazione dei condruli, 
il riscaldamento a opera dì 26 A1 avrebbe 
portato la temperatura nell'interno dei 
corpi condritici ordinari a un massimo di 
1 100 gradi Celsius: quanto basta per fon- 
dere metalli e solfuri, ma non per provo- 



La maggior parte delle meteoriti 
proviene dalla fascia degli asteroidi 



miliardi di anni caduta in Francia nel 1 
non avesse subito alcuno shock poiché r grani 
silicatici non apparivano deformati. Ma un 
esame più attento ha rivelato la presenza di 
vene metalliche [in giallo}, indice che la roccia 
astata riscaldata da un impatto di alta energia. 




1 ' 1 <.<2ì* ' 



__copiodiuncond._ 
Ila meteorite di Allende, precipitata in Messico 
nel 1969, mastra segni di riscaldamento. 
Gli anelli concentrici indicano che la roccia subì 
almeno tre episodi di fusione. 

A Una sezione della meteorite denominata Colon y, una condrite 
carbonacea del peso di 3,9 chilogrammi rinvenuta nel 1975 in una 
piantagione di cotone nell'Oklahoma. 



-V* 



care una fusione massiccia dei minerali 
silicatici e un differenziamento interno 
dell'asteroide. L'efficacia del riscalda- 
mento dovuto ai radioisotopi doveva 
essere ancora più bassa negli asteroidi 
che hanno generato le condriti carbona- 
cee; in uno studio dei condruli di una 
di queste meteoriti (effettuato da Takuya 
Kunihiro e da me, insieme con i nostri 
colleghi dell'Università della California a 
Los Angeles), è risultato un rapporto ini- 
ziale medio tra 26 A1 e 27 A1 di 3,8 x IO -6 , 
vale a dire circa metà della quantità tro- 
vata nei condruli delle condriti ordinarie. 
Anche nell'ipotesi più «generosa», abbia- 
mo calcolato che la temperatura massima 
raggiunta in asteroidi del tipo delle con- 
driti carbonacee con un diametro di 80 
chilometri o più sarebbe stata di soli 670 
gradì Celsius, insufficiente per provocare 
una fusione. 

Per aggirare il problema, i sostenitori 
del riscaldamento da parte di 26 Al ipo- 
tizzano che alcuni condruli potrebbero 
essersi formati in un'epoca più precoce 
della storia del sistema solare - forse più 
prossima al momento in cui ! minerali 
delle inclusioni refrattarie condensarono 
dalla nebulosa solare - e quindi doveva- 
no possedere un rapporto tra 26 A1 e 27 A1 
molto più elevato. Secondo questa teo- 
ria, sarebbe impossibile trovare tracce dei 
condruli originatisi precocemente, perché 
sarebbero stati completamente distrutti 
nella fusione degli asteroidi condritici 
io cui vennero inglobati. Benché questa 
ipotesi non possa essere smentita, appa- 
re poco probabile. Se davvero esistettero 
condruli ricchi di 25 A1, dovevano esserce- 
ne anche alcuni di tipo «intermedio», che 
ebbero origine in epoca un po' più tarda e 
possedevano un rapporto iniziale tra 26 A1 
e 27 AI moderatamente più basso: insuf- 



L'AUTORE 



fidente a causare la distruzione dei con- 
druli, ma più elevato dì quelli osservati 
finora. Questi ipotetici condruli dovreb- 
bero essersi conservati, ma al momento 
non ne è stato trovato nessuno. 

Qualche alternativa 

Dato che l'entità del riscaldamento a 
opera di 26 A1 potrebbe non essere suffi- 
ciente a causare la fusione degli asteroidi, 
appare ovvio cercare altre possibili fonti 
di calore. Un'alternativa proposta fre- 
quentemente è un altro radioisotopo a 
breve vita: 11 Ferro 60 ( 60 Fe), che ha un 
tempo di dimezzamento di 1,5 milioni di 
anni, fi suo prodotto di decadimento, il 
nichel 60 ( 60 Ni) è stato scoperto in alcu- 
ne eucriti da Alexander Shukolyukov 
e Ounter Lugmair dell'Università della 
California a San Diego, e in alcune con- 
driti da Shogo Tachibana e Gary Huss, 
allora alla Arizona State University. 
Tuttavia l'abbondanza iniziale stimata 
di 60 Fe è bassa, dell'ordine di 3 x IO" 7 . 
Kunihiro e colleghi hanno calcolato 
che il decadimento di questo radioiso- 
topo innalzerebbe la temperatura negli 
asteroidi solo di circa 180 gradi Celsius. 
I ricercatori hanno concluso che il calore 
generato dal decadimento combinato di 
26 A1 e 60 Fe non avrebbe potuto provoca- 
re la fusione di questi corpi. 

Un altro possibile meccanismo di 
riscaldamento è l'induzione elettroma- 
gnetica. Il Sole, nella sua prima fase di 
vita, potrebbe aver generato un intenso 
vento solare ionizzato che trasportava un 
campo magnetico in moto verso l'esterno 
del sistema solare alla velocità di alcune 
centinaia di chilometri al secondo. Se 
questo vento avesse incontrato asteroidi 
elettricamente conduttivi, avrebbe potu- 



y : T i 









r 



ALAN E. RUBIN è geochimico all'Università della California a Los Angeles; le sue ricerche 
si concentrano sulle tracce di impatti nelle meteoriti e su natura e origine dei condruli. 
Nel 2002 l'asteroide 622? è stato battezzato «Alanrubin» come riconoscimento dei suoi 
contributi allo studio degli asteroidi. È autore del libro Disturbing the Solar System: Impacts, 
Ctose Encounters and Corning Attractions (Princeton University Press, 2002]. 



76 LE SCIENZE 



443 , 'luglio 200$ 



www.lescienze.it 



LESCIENZE ?? 



Le collisioni che formarono gli asteroidi 
sono le stesse da cui nacque la Terra 



to indurre nel loro interno correnti elet- 
triche che a loro volta avrebbero genera- 
to calore. Questa ipotesi, tuttavìa, trova 
pochi sostenitori a causa delle sue molte 
incognite. In primo luogo, non è noto se 
il Sole abbia mai posseduto un vento cosi 
intenso; inoltre le stelle molto giovani 
che manifestano simili emissioni tendo- 
no a concentrarle in corrispondenza dei 
poli, ben lontano dunque dagli asteroidi 
situati nei dischi di accrescimento a livel- 
lo dell'equatore stellare. 

Riscaldamento per collisione 

L'unica valida alternativa che rimane 
è il calore prodotto nelle collisioni tra 
asteroidi. Anche questa ipotesi, però, 
presenta dei problemi. Klaus Keil, diret- 
tore dell'Institute of Geophysics and 
Planetology dell'Università delle Hawaii, 
ha sollevato varie obiezioni. In primo 
luogo, un singolo impatto può innalza- 
re solo di qualche grado la temperatura 
globale di un corpo di dimensioni aste- 
roidali. Inoltre, l'elevato rapporto super- 
ficie/volume di questi oggetti facilita la 
dispersione termica, per cui si raffredda- 
no rapidamente tra un impatto e l'altro. 
In terzo luogo, un tipico impatto genera 
quantità minuscole di roccia fusa rispet- 
to al volume totale dei detriti. E infine, 
le basse velocità di fuga degli asteroidi 
permettono a gran parte della materia 
più fortemente riscaldata dì sfuggire. 

Benché queste obiezioni siano fonda- 
te, potrebbero essere in gran parte irrile- 
vanti perché postulano che il bersaglio 
dell'impatto sia un corpo coesivo a bassa 
porosità, come la Terra e la Luna. Come 
abbiamo detto in precedenza, la scoperta 
che molti asteroidi hanno densità bas- 
sissime indica che molti di questi cot- 
pi sono in pratica dei cumuli di pietre 
ad alta porosità. La porosità calcolata 
di Mathilde, per esempio, è del 50 per 
cento: metà dell'asteroide è spazio vuo- 
to. Per di più, la porosità degli asteroidi 
potrebbe essere stata anche maggiore 
immediatamente dopo la loro aggre- 
gazione dalla materia residua del siste- 



ma solare primordiale. L'accrescimento 
avviene a velocità relative molto basse e 
forma strutture «soffici»: sono necessari 
impatti ad alta energia per comprimere i 
materiali porosi in corpi coesivi. 

Quando una grande meteorite col- 
pisce la superfìcie terrestre, vi crea un 
cratere poco profondo; su un asteroide 
a bassa densità, un impatto analogo 
scaverebbe una depressione profon- 
da, quasi cilindrica, nel corpo poroso 
[si veda il box nella pagina a fronte). 
Dato che l'energia dell'urto si propaga 
scarsamente nei materiali porosi, un 
impatto può riscaldare in maniera mol- 
to efficiente le rocce confinanti con il 
cratere. Rispetto a un impatto con un 
bersaglio coesivo, in questo caso viene 
spesa più energia per riscaldare le roc- 
ce all'interno dell'asteroide e meno per 
espellere detriti. Questi ultimi tendono 
invece a ricadere nella depressione, 
coprendo il cratere iniziale e fungendo 
da copertura che ritarda la dispersione 
del calore. Sebbene la temperatura glo- 
bale dell'asteroide non aumenti apprez- 
zabilmente, alcune regioni del bersaglio 
subiscono un riscaldamento significati- 
vo, tanto che certe rocce arrivano a fon- 
dere. Impatti successivi danno origine a 
un gran numero dì regioni metamorfo- 
sate nelle vicinanze dei crateri. 

Gli studi sulle meteoriti stanno for- 
nendo prove a sostegno dell'ipotesi del 
riscaldamento per collisione. In genere, 
i ricercatori determinano se una meteo- 
rite ha subito un forte impatto esami- 
nando la struttura dei grani di silicati. 
Uno shock intenso deforma le strut- 
ture cristalline e crea configurazioni a 
mosaico che sono facilmente osservabili 
al microscopio. (La collisione che staccò 
la meteorite dall'asteroide di origine di 
solito non è la causa dello shock; tipica- 
mente, i frammenti si staccano senza che 
i minerali che li compongono subiscano 
deformazioni rilevanti.) 

Ho esaminato di recente oltre 200 
condriti ordinarie metamorfosate, ini- 
zialmente classificate come «esenti da 
shock» perché in esse i grani di silicati 



non apparivano deformati, e ho scoperto 
che queste rocce, nessuna esclusa, ave- 
vano in realtà altre strutture da shock, 
quali le vene metalliche. (Dato che i 
metalli hanno punti di fusione più bassi 
dei minerali silicatici, spesso si lique- 
fanno a seguito di un impatto.) Ne ho 
concluso che tutte ie condriti ordinarie 
metamorfosate avevano subito un forte 
impatto e un successivo riscaldamen- 
to, in qualche caso più di una volta. Le 
tracce di questi eventi erano difficili da 
identificare perché il riscaldamento ave- 
va cancellato alcune delle caratteristiche 
strutture da shock modificando i grani 
silicatici deformati. 

La datazione isotopica di una condrite 
ordinaria con tracce di impatto e riscal- 
damento ha dimostrato che la roccia subì 
questo trauma circa 4,27 miliardi di anni 
fa. I radioisotopi a breve vita non posso- 
no essere stati la causa del riscaldamen- 
to, poiché questo evento accadde circa 
300 milioni di anni - ossia all'ineìrca 400 
volte il tempo di dimezzamento di 26 A1 - 
dopo la formazione degli asteroidi. Se gli 
impatti avevano un effetto simile in un 
periodo così tardo della storia del siste- 
ma solare, a maggior ragione dovevano 
essere in grado dì riscaldare gli asteroidi 
in epoche precedenti, quando gli impatti 
avvenivano con maggiore frequenza. In 
effetti sono state rinvenute alcune con- 
driti ordinarie altamente metamorfosate 
che sono coerenti con questo scenario: 
risalgono a 4,44-4,45 miliardi di anni fa 
e presentano evidenti strutture da shock, 
come aggregati di metalli e solfuri fusi, a 
fianco di silicati che hanno chiaramente 
subito modificazioni termiche. 

L'ipotesi che gli impatti abbiano con- 
tribuito in misura rilevante al riscalda- 
mento degli asteroidi può essere ulte- 
riormente verificata cercando una cor- 
relazione positiva tra il grado dì meta- 
morfismo delle condriti e l'entità delle 
strutture da shock. Le rocce che hanno 
subito impatti più violenti dovreb- 
bero essersi riscaldate di più. I dati su 
oltre 1650 condriti ordinarie contenu- 
ti nell'edizione 2000 del Catalogne of 
Meteorites mostrano che in effetti è così. 
I modelli di riscaldamento collìsionale 
prevedono anche che i gruppi dì condriti 
con la percentuale più elevata di oggetti 
metamorfosati dovrebbero anche com- 
prendere la frazione maggiore di oggetti 



78 LE SCIENZE 



4-4-3 /luglio ?00 5 



CRATERI A CONFRONTO 



Quando un aggetto colpisce un corpo coesìv 
di coppa ed espelle grandi quantità di detriti [in alto]. Una parte di questi ricade nella 
depressione [formando il cratere apparente, che è profondo circa la metà di quello 
reale] e una parte circonda l'orlo. Ma quando la collisione avviene con un asteroide a 
bassa densità, il corpo impattante vi penetra come un proiettile in un materiale tenero 
[in basso]. L'energia dell'impatto provoca il riscaldamento e la compressione delle 
rocce anziché l'espulsione di detriti. I residui della collisione ricadono nella profonda 
depressione e fungono da copertura che ritarda la dispersione termica. 



Cratere apparente 



Detriti espulsi 




PER APPROFONDIRE 



MCSWEEN H.Y„ Jr„ Meteorites and Their Parent Planets (Il edizione), Cambridge University 
Press, 1999. 

BOTTKE W.F, Jr, CELLINO A., PAOUCCHI P. e BINZEL R.P. [a cura],Asteroids III, University of Ari- 
zona Press, 2002. 

DAVIS A. M, [a cura], Treatiseon Geochemistry, voi 1: Meteorites, Comets, andPlanets, Elsevier, 
2004. 

TAYLOR G. JEFFREY, Asteroid Heating: A Shocking View. Oisponìbile on line all'indirizzo: www. 
psrd.ha wa i i .edu/Apri!04/ aste ro i d H eating.html. 



con strutture da shock. E anche questo è 
vero per i gruppi delle condriti ordinarie 
e carbonacee. 

Per riassumere, un esame obiettivo 
delle evidenze disponibili indica che sia le 
collisioni sia il decadimento di 26 A1 furo- 
no cause importanti del riscaldamento 
asteroidale. È mia opinione che gli impatti 
siano stati il meccanismo predominante, 
ma la maggior parte dei cosmochimici 
privilegia l'ipotesi del decadimento. Se 
il contributo più importante fosse stato 
offerto dal riscaldamento dovuto agli 
impatti, la storia termica degli asteroidi 
sarebbe in contrasto con quella previ- 
sta dal modello standard della struttura 
a cipolla. Per esempio, il tempo di raf- 
freddamento delle rocce sepolte sotto il 
fondo dei crateri di impatto sarebbe di 
gran lunga più breve dei milioni di anni 
postulati per le rocce dell'interno degli 
asteroidi riscaldate dal decadimento di 
26 A1. Ed Scott dell'Università delle Hawaii 
a Manoa ha recentemente riesaminato i 
dati sui tempi di raffreddamento relativi 
a un gruppo di condriti ordinarie e ne 
ha concluso che la massima parte delle 
evidenze non supporta la teoria di una 
struttura stratificata del corpo genitore, 
che ci si aspetterebbe in caso di riscalda- 
mento da 26 A1. 

Asteroidi, pianeti e comete hanno 
un'ascendenza comune. Le stesse colli- 
sioni che diedero origine agli asteroidi e 
ne provocarono la craterizzazione con- 
dussero anche alla genesi della Terra; i 
corpi della fascia asteroidale si sarebbero 
a loro volta aggregati in un pianeta, se 
non fossero intervenute le perturbazioni 
gravitazionali di Giove. Per questo moti- 
vo, gli asteroidi ci offrono una prospetti- 
va rivelatrice sull'evoluzione del nostro 
stesso pianeta 4,5 miliardi di anni fa. Le 
antiche superfici butterate della maggio- 
ranza di questi corpi rocciosi indicano 
che gli impatti di alta energia continua- 
rono a essere frequenti per centinaia di 
milioni di anni. Alcune di queste colli- 
sioni avrebbero potuto essere così vio- 
lente da vaporizzare gli incipienti ocea- 
ni terrestri e rendere sterile la crosta. 
La recente scoperta che le collisioni tra 
asteroidi potrebbero essere state almeno 
in parte responsabili del riscaldamento 
di questi corpi dimostra ancora una volta 
che gli effetti della formazione di crateri 
si estendono ben oltre la superficie. E 



www.lescienze.it 



LE SCIENZE 79 



Fondamentale per la produzione 
di energia a livello cellulare, 
la carnitina è un importante 
regolatore del metabolismo 
in tutti gli esseri viventi 



Cento anni 

di carn 



di Menotti Galvani, Gianfranco Peluso 
ePaolaBenatti 



80 LESCIENZE 




a carnitina compie cento anni. Cento anni «ben portati», 
perché questa sostanza naturale, essenziale perla fisiologia 
dell'organismo, suscita un interesse perii quale la comunità 
scientifica mondiale continua a investire know-how e tecno- 
logie che dimostrano quanto sia importante e quanto ancora 
ci sìa da scoprire su questa «vecchia signora» 
della chimica e della medicina, utilizzata come 
farmaco con indicazioni terapeutiche riconosciute da autorità sani- 
tarie di tutto il mondo, tanto che oggi è registrata in 31 paesi e com- 
mercializzata in 28. Le proporzioni del fenomeno carnitina si com- 
prendono bene esaminando il numero di pubblicazioni scientifiche 
che la riguardano: a partire dal remoto primo lavoro pubblicato nel 
1905, le banche dati riportano oggi circa 13.000 articoli che riguar- 
dano questa semplice ma affascinante molecola, e ogni anno se ne 
pubblicano 400-500 dì nuovi. Il motivo di tanto interesse risiede cer- 
tamente nel ruolo cardine svolto da questa sostanza nel dirigere il 
traffico tra diverse vie metaboliche di primaria importanza perla fi- 
siologia dei sistemi viventi. I deficit di carnitina, infatti, quando sono 
gravi sono incompatibili con la vita, ma anche se moderati possono 
compromettere in diversa misura il benessere e la qualità della vi- 
ta stessa. La carnitina è un carrier degli acidi grassi che, trasporta- 
ti dal citoplasma al mitocondrio, un organello che funge da centrale 
energetica per la cellula, vengono beta ossidati, producendo energia. 
Questa è la definizione fornita dai testi di biochimica. Dunque la car- 
nitina permette la trasformazione dei cibi in energia, e la sua presen- 
za è assolutamente indispensabile. Quindi è una sostanza essen- 
ziale perla vita, che deve essere assunta con la dieta perché non è 
sintetizzabile dall'organismo, come le vitamine. Ma, sebbene anche 
la sua struttura chimica sia simile a quella delle vitamine, la carniti- 
na non è una vitamina, perché l'organismo è in grado di sintetizzarla. 
Entrando nel dettaglio della struttu ra chimica, la carnitina è ca ratte- 
rizzata dalla presenza di u n gruppo amminico e d i un gruppo ca rbos- 
silico. Quindi è un amminoacido? No, perché gli amminoacidi forma- 
no le proteine, proprietà non condivisa dalla carnitina. Appartenendo 
alla famiglia delle metìla mmine (derivati dell'a m moniaca ] , la carniti- 
na è un osmolita che protegge le cellule dallo stress osmotico, e cioè 
dai rapidi e drastici cambiamenti del volume cellulare e della concen- 
trazione dei soluti intracellulari. Per questo motivo è presente anche 
in cellule prive di mitocondri come i globuli rossi, ma questa interpre- 
tazione è ancora poco indagata. 



LH 



ii 



>i d £— rj + — 



Lrl. 



}J 
I 

— r- 

' T 



1 



■m— ruu 



LESCIENZE 81 



LE PROTEINE DEL SISTEMA DELLA CARNITINA 


CPT-I 


Carnitina-palmitoil-transferasi 1; localizzata sulla mem- 
brana mitocondriale esterna, catalizza il trasferimento di 
gruppi acile dalfacetil-CoA alla carnitina, producendo aei- 
lcamitine. È presente in isoforme tessuto-specifiche con 
differenti proprietà cinetiche: L-CPT 1, M-CPT 1, C-CPTI. 


CT 


Carnitina-acilcarnitina-translocasi; localizzata sulla 
membrana mitocondriale interna, scambia l'acilcarnitina 
citoplasmatica con la carnitina libera mitocondriale 
[modalità antiporto), esporta acetilcarnitina dal mito- 
condrio al citosol [modalità uniporto), permette il flusso 
di carnitina e di aeilcamitine a corta catena dal mitocon- 
drio al citosol e viceversa per mantenere un corretto rap- 
porto carnitina libera/acilcamitina. 


CPT-I! 


Carnìtina-palmitoil-transferasi II; localizzata sulla mem- 
brana mitocondriale interna, catalizza la reazione inversa 
di quella catalizzata dalla CPT-I, riconvertendo le acilcar- 
nitine in acii-CoA, successivamente convogliato alla beta- 
ossidazione. 


CAT 


Carnitina-acetil-t ransferasi; localizzata sulla membrana 
mitocondriale interna, trasferisce gruppi acetile dall'ace- 
til-CoA alfa ca rnitina, formando acetilca miti ria, esportata 
dal mitocondrio da CT. 


COT 


Camiti na-octanoil-transferast; localizzata sul lato interno 
della membrana perossisomìale, catalizza il trasferimen- 
to di acili a media catena dal CoA alla carnitina. 


OCTN1 


Trasportatore della carnitina a bassa affinità Na '-indi pen- 
dente. 


0CTN2 


Trasportatore della carnitina ad alta affinità Na '-dipen- 
dente. 


ATB° 


Trasportatore della carnitina. 



In 



sìntesi/Molecola tuttofare 



A un secolo dalia sua scoperta, la carnitina - che è prodotta 
anche dall'organismo ma in gran parte deve essere assunta 
con la dieta - è ormai ben conosciuta come elemento 
essenziale per l'ossidazione degli acidi grassi, un processo 
chiave perla produzione dell'energia necessaria alla cellula. 
Uno squilibrio nel sistema della carnitina può sbilanciare ii 
metabolismo provocando patologie gravi - come insulino- 
resistenza, debolezza muscolare, diabete, dislipidemie e 
cardiomìopatie - capaci di compromettere il funzionamento 
dell'organismo fino ad avere, talvolta, esiti letali. 
Benché le sue funzioni siano ormai state esplorate in grande 
dettaglio, la carnitina è ancora al centro dell'interesse 
della ricerca medica, in particolare per quel che riguarda il 
rapporto tra nutrizione e sistema della carnitina e l'effetto di 
modulazione che essa esercita sul sistema immunitario. 



Allora, che cosa è la carnitina? Nell'uomo il 25 percento della 
carnitina necessaria per il fabbisogno giornaliero è sintetizzata 
dall'organismo, mentre il 75 per cento è assunto con la dieta, 
quindi secondo molti autori è un nutriente, ma la questione è 
dibattuta, e porta al concetto di «richiesta» di carnitina da parte 
dell'organismo. Ma la carnitina è anche uno strumento terapeu- 
tico per molte patologie, dunque la carnitina è un farmaco. 

Per chiarire questa situazione, cento anni di studi biochimici, 
di biologia molecolare, di genetica e dì clinica hanno fatto luce 
sulla complessità del sistema metabolico della carnitina, e hanno 
delineato un approccio metabolico a numerose patologie. 

Una molecola chiave perla salute 

La carnitina è essenziale per l'ossidazione degli acidi grassi, 
e quindi per la produzione di energia sotto forma di ATP (ade- 
nosin tri fosfato), necessaria per il metabolismo degli organismi. 
Per svolgere questo ruolo la carnilina deve entrare nella cellula, 
legarsi agli acidi grassi che si trovano nel citoplasma, trasportarli 
all'interno del mitocondrio e quindi, dopo averli rilasciati, uscire 
dal mitocondrio per riprendere un nuovo ciclo. Questo processo 
richiede una concentrazione di carnitina idonea, ma non solo; è 
necessaria la presenza di un sistema di proteine localizzate sul- 
la membrana cellulare e sulla membrana mitocondriale, sistema 
che deve essere perfettamente funzionante per non sbilanciare il 
metabolismo e portare a patologie spesso gravi e letali. Nel corso 
di queste reazioni si formano degli esteri della carnitina: nei mam- 
miferi, il gruppo 3-ossidrilico della carnitina viene esterificalo da 
catene carboniose di diversa lunghezza, formando aeilcamitine. 
Queste possono essere considerate come marcatori di funzionalità 
mitocondriale. Si delinca quindi all'interno delia cellula un com- 
plesso sistema della carnitina, formato dalla carnitina stessa, dai 
suoi esteri e dalle proteine. 

L'omeostasi del sistema della carnitina deve essere mantenuta: 
tutti i suoi componenti devono cioè essere in una situazione di 
equilibrio dinamico tra loro a livello mitocondriale ma anche cel- 
lulare, tessutale e d'organo. Una perturbazione del sistema della 
carnitina in un qualsiasi distretto dell'organismo comporta gravi 
ripercussioni per la salute. Insul ino- resistenza, diabete, dislipide- 
mie, cardiomìopatie, debolezza muscolare sono solo alcuni dei 
problemi che si manifestano quando l'omeostasi de) sistema della 
carnitina è perturbata. Paradossalmente, l'importanza della carni- 
tina sì evidenzia proprio in condizioni di deficit di carnitina! 

Che cosa accade se la carnitina non può entrare nelle cellule? Il 
primo deficit di carnitina è stato descritto ne! 1973: era associato 
a una grave forma di miopatia con accumulo di acidi grassi non 
ossidati, a livello del muscolo scheletrico. Questo deficit è stato 
poi definito «deficit primario di carnitina» e le sue cause ricono- 
sciute in pazienti il cui stato di salute era fortemente compromes- 
so. Numerosi studi ne hanno identificato la causa in una muta- 
zione genetica a carico del trasportatore della carnitina. 

La carnitina entra infatti nelle cellule grazie a una proteina 
chiamata 0CTN2, localizzata sulla membrana plasmatica del 
muscolo scheletrico, de! cuore, del rene e dell'intestino. Una sua 
mutazione causa gravi deficit sistemici di carnitina: le concentra- 
zioni ematiche sono inferiori a 5-10nanomoli per millilitro (men- 
tre i valori di riferimento nel plasma sono pari a 40-80), e anche 




GLI AUTORI 



MENOTTI CALVANI, docente di metabolismo all'Università Cattolica di 
Roma, vice presidente della Fondazione Sigma-Tau (Pomezia, Roma), 
direttore scientifico della Sigma-Tau, si occupa di ricerca sul metabo- 
lismo. GIANFRANCO PELUSO, ricercatore presso l'Istituto di biochimi- 
ca delle proteine del CNR a Napoli, si interessa di medicina mitocon- 
driale. PAOLA BENATTI, ricercatore presso la Sigma-Tau, si occupa di 
ricerca sul metabolismo con particolare attenzione a Ilo studio della 
carnitina in diversi settori applicativi. 



EFFETTQ DELTRATTAMENTO CON L-CARNITINA. Un bambino affetto da una 
mutazione a carico dell'QCTNZ presenta radiografìa del torace normale a 
quattro anni e mezzo di età (A), card io miopatia dilatativa a sei anni e mezzo 
[BJ. riduzione della card io miopatia dopo sei mesi di trattamento con 
L-camitina (C), e mantiene il risultato dopo cinque anni di trattamento [ u J . 



1 DIFETTI DELLE PROTEINE DELS1STEMA DELLA CARNITINA 


CPTI 


CPTII 


CT 


0CTN2 


Ipoglicemia 


Ipoglicemia* 


Ipoglicemia [o normale) 


Ipoglicemia 


Ipochetonemia 


Ipochetonemia* 


Ipochetonemia (o normale] 


Ipochetonemia 


1 pera m manie mìa 




Iperammoniemia 




Epatomegalia 


Epatopatia 


Epatomegalia 


Epatopatìa 


Ipotermia -Letargia 










Debolezza muscolare** 




Miopatia - Debolezza muscolare 




Card io miopatia 


Ipertrofia cardiaca 


Cardiomiopatia 




Morte improvvisa 


Aritmia 




a Carnitina nel plasma 




a Aeilcamitine nel plasma 
▼ Carnitina nel plasma (o normale] 


a Carnitina nel plasma 
TCamit ina nei tessuti 


"Infantile "Adulto a Eccesso ▼ Difetto 


Coma 



i livelli di carnitina tissutale sono estremamente ridotti. Ipoglice- 
mia, ipochetonemia, iperammoniemia sono marcatori biochimici 
di alterazioni funzionali che accompagnano cardiomiopatia, danni 
epatici e muscolari e ritardi della crescita. Questo quadro clinico 
sì presenta nei primi anni di vita, ed è letale se non si interviene 
prontamente trattando il paziente cronicamente con L-camitina 
ad alti dosaggi. Considerato una malattia rara (fino al 2000 erano 
stati registrati 33 casi in tutto ìl mondo), il deficit primario di carni- 
tina vede ne! trattamento con L-camitina un fa mi a co «salvavita»: 
la card io miopatia dilatativa viene prontamente risolta e la qualità 
di vita dei bambini migliora sensibilmente (si l'eda Vittimi razione 
in alto). E, questo, un dato molto importante, tanto che dal 1984 
la L-carnitina è stata riconosciuta orphan drag per il trattamento 
di deficit primari, altrimenti incompatibili con la vita. 

Un recente studio epidemiologico ha stimato che mutazioni 
dell"0CTN2 presentano un'incidenza di 1 caso su 40.000 nati, e la 
prevalenza dell'eterozigosi è dell* 1 ,01 per cento. Tra i soggetti ete- 
rozigoti colpiti da questo difetto genetico - con età superiore ai 20 
anni e non affetti da altri fattori di rischio tipo ipertensione - circa 



ì) 33 percento presenta ipertrofia cardiaca benigna a insorgenza 
tardiva rispetto ai suggelli che noti presenta no imitazioni a carico 
dell'0CTN2. 1 livelli plasmatici di questi soggetti sono normali, e 
nessuna patologia cardiaca è presente in giovane età. 

Quindi, per fere chiarezza, si può dire che soggetti omozigoti 
con 0CTN2 mutato presentano, nella primissima infanzia, un 
difetto primario di carnitina, spesso incompatibile con la vita. 
Soggetti eterozigoti possono invece trovarsi in una condizione di 
carenza di carnitina che solo con il sopraggiungere di altri fattori 
può, in età avanzata, causare deficit funzionali. 

11 danno indotto da! deficit di carnitina è stato valutato in det- 
taglio, studiando un modello sperimentale che utilizza topi JVS 
(cioè affetti da steatosi viscerale giovanile) in cui ì! trasportatore 
0CTN2 è geneticamente mutato. La vita media di questi topi è di 
poche settimane, durante le quali è dimostrato che la riduzione 
dei livelli plasmatici di carnitina ha effetto sull'espressione di geni 
che portano a modificazioni strutturali e funzionali dei tessuti: 
fegato e muscoli sono steatosici, e il cuore è ipertrofico. Nel fegato, 
i geni coinvolti nel ciclo dell'urea sono ipo-espressi, mentre quelli 



82 LE SCIENZE 



443 /luglio 2005 



www.lescienze.it 



LESCIENZE 83 



che codificano per CPT-I e CPT-II (enzimi camitina-dipendenti 
coinvolti nel metabolismo ossidati vo degli acidi grassi) sono iper- 
espressi nel fegato, nel muscolo cardiaco e nel muscolo scheletri- 
co. Il trattamento con L-caniitina normalizza queste espressioni 
geniche, e di conseguenza il metabolismo e la funzionalità degli 
organi, e soprattutto ripristina una nonnaie aspettativa di vita. 

Vi sono inoltre altre condizioni che, interferendo con il suo 
trasportatore OCTN2, limitano l'ingresso della carnitina nelle cel- 
lule, n quadro clinico viene identificato come «deficit secondario 
di carnitina». Il trasportatore 0CTN2 è un trasportatore di cationi, 
quindi non è specifico per la sola carnitina, ma è utilizzato anche 
da altri farmaci come cationi lipofili organici (chinidina, vera- 
pamil, emetina), antibiotici beta-latta mici (cefaloridina) e anche 
composti an ionici (probenecid, acido valproico), che inibiscono in 
intro il trasporto di carnitina da parte di 0CTN2, Molto studiato è il 
deficit dì carnitina indotto dall'acido valproico, un potente antie- 
pilettico che compete con la carnitina perl'0CTN2 ed è eliminato 
pervia renale come valproil-camitina, determinando una perdita 
urinaria di carnitina. Il fenotipo del deficit secondario è caratte- 
rizzato da iperammoniemia con patologia epatica (sindrome di 
Reye), epatite progressiva e debolezza muscolare. 

Altri studi hanno dimostrato che anche situazioni infiammato- 
rie possono interferire con l'ingresso della cani it ina nelle cellule. 
Si è osservato che in pazienti celiaci lo stato di spossatezza e aste- 
nia è accompagnato da una ridotta espressione di 0CTN2 a livel- 
lo della mucosa intestinale. Lo stato infiammatorio contribuisce 
all'ipo-espressione di 0CTN2, tanto che questa viene normalizzata 
con una dieta priva di glutine, e l'astenia e la debolezza muscolare 
vengono attenuate dal trattamento con L-camitina, 

Una condizione infiammatoria sistemica è presente anche nel 
paziente dìalizzato. La dialisi causa una riduzione dei livelli pla- 



smatici e tissutali di carnitina e l'omeostasi della carnitina è com- 
pletamente alterata per un'eccessiva perdita di carnitina attraverso 
le membrane dialitiche che ne permettono il passaggio, per un 
ridotto apporto di carnitina con la dieta (scarso infame proteico), 
e per una ridotta sintesi (essendo il rene danneggiato). Oltre a 
essere uno degli organi deputati alla sintesi di carnitina, il rene è 
fondamentale perii suo riassorbimento. Circa il 90 percento della 
carnitina escreta con le urine viene riassorbita da 0CTN2 nei tubuli 
renali. Questo meccanismo è compromesso nel paziente dializzato, 
e contribuisce allo stato di deficit di carnitina, con gravi conse- 
guenze quali cardiomiopatia, debolezza muscolare, e crampi. 

Ma che cosa accade se la carnitina una volta entrata nelle 
cellule trova gli enzimi camitina-dipendenti alterati? Per arrivare 
a svolgere il suo compito, la carnitina, una volta entrata nella 
cellula, ha bisogno di un sistema di proteine (si veda la tabella a p. 
82} che sono diversamente localizzate sui vari organelli cellulari 
(mitocondri, perossisomi, reticolo endoplasmatico, nucleo}. 

La carnitina richiede il perfetto funzionamento di CPT-I, 
CPT-II e CT per permettere l'ossidazione degli acidi grassi: è, 
questo, un punto cruciale nel metabolismo energetico. Nelle 
cellule animali gli enzimi coinvolti nell'ossidazione degli acidi 
grassi sono localizzati nella matrice all'interno dei mitocondri, 
quindi gli acidi grassi devono subire una serie di reazioni prima 
di attraversare la membrana mitocondri a le. Per questo processo, 
però, solo gli acidi grassi a lunga catena richiedono la presenza 
del sistema della carnitina, mentre quelli a corta catena possono 
diffondere direttamente attraverso la membrana mitocondriale. 

Prima di tutto gli acidi grassi a lunga catena devono essere 
«attivati», cioè si devono legare a un trasportatore chiamato Coe- 
nzima A (CoA) citoplasmatico, trasfonnandosi in acil-CoA. Poi gli 
acil-CoA si legano alla carnitina che si trova nel citoplasma in una 



reazione catalizzata dalla CPT-I e formano acilcamitine, liberando 
CoA che così è reso disponibile per la biosintesi degli acidi grassi. 
Le acil-camìtine attraversano la membrana mitocondriale tramite 
il trasportatore acilcarnitina/carnitina translocasi (CT), Nella matri- 
ce il gruppo acile viene trasferito al CoA mitocondriale in una rea- 
zione, catalizzata da CPT-II, che libera carnitina. L'acil-CoA entra 
così nel ciclo di Krebs, dove viene beta ossidato, mentre la carnitina 
torna nel citosol utilizzando lo stesso trasportatore CT. All'interno 
del mitocondrio però vengono ossidati anche gli acidi grassi a corta 
catena, gli amminoacidi e il piruvato (derivato dal glucosio). Per 
queste reazioni, così come per la formazione di acil-CoA a lunga 
catena, è indispensabile il CoA. La formazione di acil-camitine a 
corta catena che possono essere esportate fuori dal mitocondrio e 
dalla cellula ed eliminate con le urine «libera» il CoA nella matrice 
e lo rende nuovamente disponibile. 

Questo processo è perturbato in caso di deficit di carnitina o di 
alterata funzionalità degli enzimi camitina-dipendenti e si traduce 
in un aumentato rapporto acil-CoA/CoA e di conseguenza acil- 
carnitina/carnitina mitocondriale, indice usato in clinica per indi- 
viduare deficit di carnitina (valori di nonnalità: < 0.4). fi fenotipo 
è caratterizzato da encefalopatia iperammoniemica, ipoglicemia, 
ipocheton ernia, acìduria dicarbossilica, iperuricemia, debolezza 
muscolare, mioglobinuria, cardiomiopatia, morte improvvisa. Que- 
sto quadro è stato individuato in patologie quali diabete, ischemia 
cardiaca, infarto del miocardio, scompenso renale e sepsi. 

Normalizzando il rapporto acil-CoA/CoA, il trattamento con 
L-carnitina riattiva la beta ossidazione e i processi catabolici 
mito condri ali. Inoltre permette la rimozione di acidi organici o di 
xenobiotici (farmaci, contaminanti ambientali, tossine dì origine 
animale) sotto fonna di acil-camitine che vengono eliminati con 
le urine (processo di detossi fk azione). 



identificano fa carnitina in 
estratti di muscolo bovino 




M.TomitaeY.Sendju 

elucidano la 

struttura etti mica 

della carnitina. 



r .! | 
1 1 




1 1 




...:.. 






1927 





G. Fraenkel documenta 
il fabbisogno di carnitina 
nell'accrescimento 
delle larve del coleottero 
Tenebrìa moiitor. 



UN SECOLO DI SCOPERTE 



La carnitina (dal latino camis) viene scoperta nel muscolo 
bovino dallo scienziato russo W. Gulewitsch nel 1905, e la 
sua struttura è stata stabilita definitivamente nel 1927. Dopo 
essere caduto quasi in oblio, l'interesse perla carnitina ritorna 
negli anni trenta a causa della sua analogia strutturale e 
biologica con l'acetilcolina. 

La molecola torna improvvisamente alla ribalta quando si 
scopre il suo ruolo di vitamina per un ristretto gruppo di 
coleotteri, i tenebrionidi. Siamo nel 1947, nell'immediato 
dopoguerra, e questi coleotteri che infestano alimenti secchi 
quali cereali o farine sono attivamente studiati. All'epoca 
furono scoperte le vitamine del gruppo B, ultima delle quali 
l'acido folico, o vitamina B9: questo gruppo è così importante 
cheì coleotteri del genere Tribolium, per sopravvivere, hanno 
bisogno di tutte le vitamine che ne fanno parte. Tra i coleotteri 
studiati si distingue il Tenebrio moiitor, comunemente 
chiamato verme della farina, la cui crescita è lenta e la 
mortalità elevata anche in presenza di una dieta costituita da 
caseina, glucosio, colesterolo, una miscela di sali e tutte le 
vitamine del gruppo B. Inoltre le larve muoiono pur 
mantenendo intatti i loro depositi digrasso. Solo aggiungendo 
estratto dì fegato il coleottero cresce. 

Studi condotti da G, Fraenkel, H.E. Cartere P.K. 
Bhattacharyya isolano questo «fattore» presente negli 
estratti di fegato, che nel 1952 è identificato come L-carnitina. 
Lisciamento è stato difficile, a causa delle attrezzature 
esistenti all'epoca e delle proprietà alquanto sfavorevoli della 
carnitina, che è igroscopica, estremamente solubile in acqua e 
in quanto tale difficile da cristallizzare, 
incolore e senza nessuna evidente 
reazione cromatica. 

A questo punto, l'importanza della 
carnitina nell'ossidazione degli acidi 
grassi è accertata; la scoperta di enzimi 
camitina-dipendenti come la carnitina 
aceti I trans fera si [CAT] e la carnitina 
palmitoiltransferasi (CPT) e di un carrier 
mitocondriale della carnitina chiamalo 
ca rnìtina-acilcarnitina translocasi (CT), 
insieme con l'identificazione della 
carnitina e delle sue proteine in vari 
organelli cellulari, delineano la topologia 
del sistema della carnitina e le sue 
principali funzioni nel metabolismo 
intermedio. Nel 199 8 viene infine 
scoperto che la carnitina è trasportata dal 
plasma ai tessuti grazie a un 
trasportatore cationico chiamato QCTN 2. 
A questo punto gli studi si indirizzano 
sempre di più verso l'identificazione delle 
caratteristiche molecolari della carnitina 
e delle sue proteine e il loro 
coinvolgimento in diverse patologie. 






84 LE SCIENZE 



443 /luglio 2005 



www.lescienze.it 



LE SCIENZE 85 



L'equilibrio della fisiologia cellulare dipende anche dalla pre- 
senza di altri componenti del sistema della camiti na. Gli este- 
ri della carnitina, per esempio, possono essere a catena lunga, 
formati dalle CPT, o a catena medio-corta, formati da COT o da 
CAT, E ci sono condizioni patologiche in cui il nonnaie processo 
metabolico di questi esteri è alterato. Per esempio le acil-camitine 
a lunga catena si accumulano durante ischemia cardiaca a causa 
sia di ridotti livelli miocardici di carnitina o per alterata funziona- 
lità degli enzimi carnitina-dipendenti, in particolare CPT-H o CT, 
Essendo questi esteri molecole che contengono sia gruppi idrofo- 
bici che idrofilia, si inseriscono nella struttura fosfolipidica delle 
membrane cellulari e mitocondriali alterandone la permeabilità e 
l'architettura provocando aritmie e disturbi di conduzione nel car- 
diomiocita, n trattamento con L-camitina si è dimostrato efficace 
nel ripristinare un nonnaie metabolismo del miocardio, ma risul- 
tati interessanti si sono ottenuti anche trattando questi pazienti 
con un derivato della carnitina : la propionil-L-camitina, o PLC. 

La PLC è un estere naturale della carnitina, tonnato nel mito- 
condrio dalla reazione tra carnitina e propionil-CoA (l'intermedio 
metabolico derivato dall'ossidazione degli amminoacidi ramificati 
e degli acidi grassi a catena dispari). Nel paziente ischemico, i due 
farmaci normalizzano ì livelli miocardici di carnitina e rimuovo- 
no l'accumulo di acil-camitine a lunga catena, tuttavia l'affinità 
di 0CTN2 e CPT-I per la PLC è maggiore rispetto a quella per la 
L-carnitina, Inoltre la PLC fornisce al mitocondrio il gruppo pro- 
pinato, un substrato usato dal ciclo di Krehs per produrre energia, 
particolarmente importante in condizioni estreme quali appunto 
quelle dovute a una ridotta disponibilità di ossigeno. 

Tra le acil-camitine a corta catena, particolare importanza 
assume l'acetil- L-camitina (ALC). La ALC è sintetizzata dal- 
l'enzima mitocondriale CAT a partire da carnitina e acetil-CoA 
(intermedio metabolico derivato dall'ossidazione dì acidi grassi a 
catena pari, amminoacidi e glucosio), ed è sempre lo stesso enzi- 
ma che la metabolizza in tutti ì tessuti dell'organismo. Essendo 




LA DIETA GIUSTA 



Dato che il 75 del fabbisogno quotidiano di carnitina va 
assunto con la dieta, è importarne conoscerne il contenuto 
nei cibi [si veda la tabella a p. 88]. Tuttavia vari fattori - quali 
composizione corporea, età, sesso, e in particolare il tipo di dieta 
stessa - contribuiscono a modificare i contenuti plasmatici di 
camiti ri3. Per esempio, in adulti magri che assumono una dieta 
povera di carnitina la concentrazione plasmatica di carnitina 
e la sua escrezione urinaria sono ridotti. Di contro, invece, 
la risposta non è cosi chiara in soggetti adulti obesi. Inoltre 
soggetti che assumono diete a scarso contenuto proteico, come 
i vegani, o diete a base di cereali, come gli indiani, hanno ridotti 
livelli plasmatici di carnitina se confrontati con soggetti che 
assumono diete ricche in proteine animali. Analogamente accade 
anche in bambini e adulti I atto -ovovegeta ria ni, dove tuttavia la 
significativa riduzione ematica di carnitina non è correlata con 
evidenze cliniche alterate. 

La carnitina è sintetizzata a partire dagli amminoacidi lisina e 
metionina, che possono essere introdotti con la dieta o derivano 



dalla degradazione proteica, quindi ridotti livelli plasmatici 
di carnitina nei vegani enei latto -ovovegeta ria ni possono 
essere spiegati anche alla luce di uno scarso apporto, in questi 
soggetti, di questi amminoacidi essenziali. Un'alimentazione 
ricca di grassi e povera di carboidrati, infine, induce un notevole 
incremento di carnitina plasmatica se confrontata con una dieta 
povera di grassi e ricca di carboidrati. 

Anche un corretto equilibrio tra i micro nutrì enti assunti con 
la dieta, può interferire con la sintesi o l'assorbimento della 
carnitina, come dimostrato in soggetti il cui apporto nutrizionale 
di vitamina C, o vitamine del gruppo B, o ferro, è alterato. È 
necessario inoltre tener presente che la carnitina viene assorbita 
nel tratto gastrointestinale secondo la quantità introdotta. È 
stato dimostrato che l'assunzione di una quantità di carnitina 
superiore ai sei grammi ha un assorbimento del 10-15 percento, 
mentre una quantità inferiore a un grammo viene assorbita nella 
misura del ?5 per cento. La porzione di carnitina non assorbita dal 
tratto gastrointestinale viene degradata dalla flora batterica. 



METABOLISMO CELLULARE. La carnitina entra nella cellula tramite QCTN1, 
QCTN2 e ATB°. Gli acidi grassi sono trasformati in acil-CoA dall'adi -Co A 
sintetasi. In una reazione catalizzata da CPT-I, Taci 1-CoA è trasformato in acil- 
carnrtina che entra nella matrice mitocondriale tramite CT, dove CPT- Il , rende 
di nuovo disponibile CoA e carnitina, mentre l'acil-CoA è convogliato nella beta 
ossidazione. Ogni ciclo beta ossidai ivo «stacca» un'unità aceti Ne a. Lacetil-CoA 
entra nel ciclo di Krebs, dove viene ossidato a CO;, producendo ATP. Lenergia 
liberata viene conservata riducendo i trasportatori di elettroni NAD + e FADH a 
NADH e FADH2. La catena respiratoria catalizza il trasferimento degli elettroni 
da MACH e FADH 2 sull'ossigeno molecolare formando H 2 e liberando ATR 



CARNITINA NEL PLASMA E NEI TESSUTI DI SOGGETTI SANI 


Plasma (nanomoli per millilitro] 


40-80 


Tessuti (nanomoli per grammo tessuto secco) 


Muscolo scheletrico 


4210 


Cuore 


1260 


Fegato 


940 


Rene 


520 


Nervo sciatico 


110 



l'ALC liberamente scambiata attraverso le membrane subcellulari, 
costituisce un deposito di gruppi aeetilici in equilibrio con il pool 
intracellulare di acetil-CoA, quindi è fondamentale nel mantene- 
re un corretto rapporto mitocondriale acetil-CoA/CoA. 

Nel sistema nervoso l'ALC è l'estere della carnitina più abbon- 
dante. Inoltre anche l'attività dell'enzima CAT è maggiore nel- 
l'ipotalamo e nell'ippocampo. L'ALC è metabolizzata e sintetiz- 
zata grazie allo stesso enzima CAT in rutti i tessuti del nostro 
organismo, ma, diversamente dagli altri tessuti, la ALC nel siste- 
ma nervoso può attraversare la membrana mitocondriale con 
maggiore facilità grazie a un'aumentata affinità dell'enzima CT 
per gli esteri della carnitina a corta e media catena rispetto alle 
acilcamitine a lunga catena. Da questa osservazione nasce l'im- 
portanza di valutare la sua concentrazione in diverse patologie. 

L'infezione da HIV determina una riduzione dei livelli plasmatici 
di carnitina e ALC, dato correlato con la presenza di segni clinici 
di neuropatia. La terapìa con farmaci antiretrovirali (stavudina, 
didanosina) riduce ulteriormente ì livelli, e in particolare quelli di 
ALC. Non si hanno dati sull'attività e/o espressione degli enzimi 
camitina-dipendenti in questa patologia, ma certamente si ha una 
condizione dì insufficienza mitocondriale che il trattamento con 
ALC risolve sia dal punto di vista metabolico che funzionale. 

Diversa è la situazione dei pazienti affetti dalla «sindrome da 
fatica cronica». I sintomi sono una sensazione di affaticamento 
generalizzato, debolezza muscolare e mialgia, ma esami istologici 
ed elettromiografici non evidenziano alterazioni. Alcune anoma- 
lie metaboliche hanno suggerito di indagare il sistema della carni- 
tina. I livelli plasmatici di carnitina sono risultati normali, mentre 
quelli di ALC sono significativamente ridotti, così come è ridotto 
Y uptake di ALC nel cervello rispetto a soggetti di controllo. L'ALC 
è un importante precursore di numerosi neurotrasmettitori come 
il GÀBA, l'acido glutammico e l'acetilcolina, quindi un ridotto 
uptake cerebrale può giustificare i sintomi neuropsicologici pre- 
sentati da questi pazienti. I dati indicano che essendo normali i 
livelli ematici di carnitina, la ridotta concentrazione di ALC può 
essere legata a un difetto enzimatico di CAT, oppure a difetti della 
beta ossidazione, e comunque sono riconducibili a una disfunzio- 
ne mitocondriale. Il trattamento con ALC si è dimostrato efficace 
nel normalizzare i livelli plasmatici di questo estere enei migliora- 
re sensibilmente il quadro clinico e la qualità di vita dei pazienti. 

L'omeostasi del sistema della carnitina è mantenuta da un fine 
controllo tra gli organi che utilizzano la carnitina secondo diverse 
proprietà cinetiche dipendenti dall 'uptake e dall'uso dei substrati 
da parte delle proteine del sistema. Quindi ogni organo è sensi- 
bile in misura diversa ad alterate concentrazioni plasmatiche di 
carnitina e dei suoi esteri, e manifesta alterazioni metaboliche 
camitina-dipendenti secondo un ordine temporale, 

Queste situazioni sono state valutate sia clinicamente che spe- 
rimentalmente in condizioni di carenza di carnitina indotta da 
acido pivalìco. Esteri dell'acido pivalico si usano in terapia per 
aumentare l'assorbimento e la disponibilità di alcuni farmaci, 
specialmente antibiotici. Gli studi hanno dimostralo che con il 
prolungarsi del periodo di trattamento con acido pivalico, la for- 
mazione di pivaloilcarnitina, eliminata pervia renale, induce una 
permanente riduzione plasmatica e tessutale dei livelli di carniti- 
na. 11 primo organo che ha rivelato segni di scompenso metabolico 
è stato il fegato, con una ridotta produzione di corpi chetonici, poi 



86 LE SCIENZE 



443 /luglio 2005 



www.lescienze.it 



LESCIENZE 87 



LA SINTESI NATURALE 







LJuomo sintetizza circa 10-20 milligrammi al giorno di camitina. 
■ La sintesi dipende dalla disponibilità di trimetil lisina, di cui il 
30-50 percento è convertito in camitina e il rimanente è escreto 
con le urine. Il primo passo della biosintesi avviene nel rene, nel 
fegato, nel cuore, nel muscolo e nel cervello, a livello m ito con d ria le, 
dopo di che continua nel citosol. L'attività dell'enzima citosolico 
butirrobetaina diossigenasi che catalizza l'ultimo step di sintesi 
è rispettivamente; rene>fegato>cervello. Una volta sintetizzata, 
la camitina entra in circolo e, tramite il trasportatore OCTN 2, 
raggiunge i diversi tessuti. Nei tessuti la camitina è distribuita a 



differenti concentrazioni [si veda la tabella a p. 87}. Il muscolo 
scheletrico, che ha la più alta concentrazione di camitina 
rispetto agli altri tessuti, scambia camitina con il plasma molto 
lentamente, così come il cuore [tempo di dimezzamento: otto 
giorni), mentre il fegato e il rene sono più rapidi (tempo di 
dimezzamento: 11 ore]. Ciò significa che un'alterazione dei livelli 
epatici o renali di camitina compare immediatamente nel sangue, 
mentre questo non accade per il muscolo e per il cuore. 
La camitina è altamente conservata nell'organismo: più del 90 
per cento della camitina filtrata è riassorbita a livello renale. 



CONTENUTO DI CARNITINA IN ALCUNI ALIMENTI 


Prodotti 
animali 


Camitina 
(mg/lOOg) 


Prodotti 
vegetali 


Camitina 
(mg/lOOg) 


Pecora 


210 


Mela 


3,1 


Cammello 


130 


Pomodoro 


2,9 


Agnello 


80 


Pera 


2,? 


Mucca 


60 


Riso 


1,8 


Maiale 


Pesca 


1,6 


Adulto 


30 


Avocado 


1,2 


Neonato 


10 


Asparago 


1,2 


Coniglio 


20 


Uva 


1,1 


Pollo 


?.s 


Farina 


1,0 


Latte 


Pane 


0,2 


Pecora 


10 


Cavolfiore 


0,1 


Capra 


3,1 


Noccioline 


0,1 


Mucca 


3,0 


Patata 





Donna 


0,9 


Carota 





Uova 


0,8 


Spinaci 





Pesce 


0,4-10 


Arancia 







PER APPROFONDIRE 



GALVANI M„ BENATTI R, MANCINELLI A e altri, Gomitine replacement in 
end-stage renatdisease andhemadiatysis,'m «Annals of the New York 
Academy of Sciences», Voi. 1033, pp, 52-G6, novembre 2004, 

STEIBER A. e altri, Camitine: a nutritionat, biasynthetic, andfunctianat 
perspective, in «Mol Aspects Med.», Voi. 25, ottobre-dicembre 2004. 

KERNER J. e H0PPELC ., Genette disordersof cambine metabolism and 
their nutritionat management, in «Annual revrewof nutrhion», Voi. 18, 
pp. 179-20G. 1998. 

REB0UCHE C.J., Camitine functian and requirements during the tife 
curie, «FASEB J.», Voi. 6, pp. 3379-338 B, dicembre 1992. 



il muscolo scheletrico con una ridotta glicolisi e infine il cuore con 
una ridotta ossidazione degli acidi grassi. 

Mantenere una perfetta omeostasi tra i vari componenti del 
sistema della camitina definisce un paradigma che identifica la 
«robustezza di un sistema biologico». Questa robustezza garantisce 
la sopravvivenza, la riproduzione e l'evoluzione del sistema bio- 
logico proteggendolo da perturbazioni interne o ambientali. Solo 
quando la robustezza del sistema viene danneggiata e non può 
essere riparata si ha la condizione patologica. 

Quali prospettive? 

La storia della camitina non è finita. Anzi, alla luce delle più 
recenti conoscenze e grazie a nuove tecnologie, si rinvigorisce di 
nuovi spunti di ricerca e nuove applicazioni. La comunità scientifi- 
ca sta mostrando un crescente interesse per l'interazione tra nutri- 
zione e sistema della camitina. Fattori nutrizionali modulano diret- 
tamente (dieta) o indirettamente (leptina, insulina) tramite recettori 
nucleari chiamati PPAR (PeroxisomeProliferator-Activated Recep- 
tor) l'espressione di CPT-I e CPT-fJ, perciò non solo la camitina è 
essenziale per il metabolismo intermedio, ma è anche necessario 
considerare l'effetto che lo stato nutrizionale ha sull'espressione 
degli enzimi usati dalla camitina stessa per svolgere il suo ruolo. 
Tenendo inoltre presente che in pazienti emodializzati, od obesi, 
la leptino-resistenza induce un 'ipoespressione nell'adipocita della 
CPT-I e che in pazienti diabetici obesi l'insulino-resistenza è asso- 
ciata a un 'ipoespressione a livello del muscolo scheletrico di CT, 
le future ricerche cliniche dovranno essere rivolte a esaminare la 
camitina nella complessità del sistema in cui agisce. 

Infine si sta destando un notevole interesse per gli studi relativi 
all'effetto immunomodulatorio della camitina. Si sa da tempo sia 
che alcune avochine infiammatorie come TNF-alfa e IL-1 alfa 
aumentano l'espressione della CPT-I, sia che il trattamento con 
camitina riduce ì livelli plasmatici dì TNF-alfa, IL-1 e IL-6 in 
diverse condizioni patologiche. Recenti ricerche hanno dimostra- 
to che la camitina può mimare l'azione immunomodulatoria dei 
glucocorticoìdi attivandone i recettori e regolando l'espressione 
di geni responsivi ai glucocorticoidi stessi. 

Che cos'è dunque la camitina? Un secolo di storia non ci per- 
mette ancora di dare una definizione di questa molecola, proprio 
perché più la ricerca progredisce più emergono aspetti nuovi e pos- 
sibilità terapeutiche che allargano gli orizzonti da Indagare. IS 



• 



88 LE SCIENZE 



443 /luglio 2005 



Via L 
nella 



io 



turbo 



Grazie alle simulazioni con i 
supercalcolatori, si cominciano 
a scoprire i meccanismi 
microscopici che governano 
il moto collettivo dei fluidi 



di Luca Biferale, Guido Bof fetta, Antonio 
Cetani, Alessandra Lanette e Federico Toschi 



tate per godervi una beila cenetta a lume 



Sdì candela. Una serata romantica per un'oc- 
casione importante. All'improvviso, mentre 
chiacchierate, prima ancora che i piatti ar- 
rivino in tavola, dalla cucina il profumo in- 
vitante del risotto vi fa venire l'acquolina in 
bocca. Tutti noi sperimentiamo di continuo 
gradevoli sensazioni, grazie al nostro olfatto. Ma vì siete 
mai chiesti come accade che gli odori possono essere di- 
stintamente percepiti dopo pochi secondi anche a distan- 
ze considerevoli dalla loro sorgente? Cerchiamo di rico- 
struire il percorso di una molecola odorosa nel suo tragitto 
da quando viene liberata nell'aria, per esempio dalla pizza 
che cuoce nel forno, a quando arriva alle nostre narici. 

90 LESCIENZE 



A LUME DI CANDELA. Questa 

fotografia di una coppiette Che 

sorseggia un tè e eseguita con la 

tecnica Schlìeren, che permette 

dt visualizzare i cambiamenti di 

densità nei mezzi trasparenti. 

evidenziando la turbolenza 

convettiva provocata dal calore 

delle candele e, in misura minore, 

da quello delle tazze. 




In sintesi/L'en/gmq dei fluidi 







Innanzitutto, la nostra molecola è messa iti movimento dagli 
urti coti le molecole dell'aria. Queste ultime sono perennemente 
impegnate in un moto disordinato generato dai loro urti recipro- 
ci, un moto incoerente chiamato agitazione termica: quanto più 
elevata è la temperatura dell'aria, tanto maggiore è la velocità 
caratteristica delle molecole. La somma di tutti i contributi incoe- 
renti dovuti agli urti risulta nello spostamento della «molecola 
odorosa» dalla sua posizione originale. 

Quando però si cerca di stimare l'importanza di questo effetto 
di diffusione molecolare, ci si rende conto che è del tutto trascu- 
rabile su scala macroscopica in condizioni normali (si veda iibox 
nella pagina a fronte). Infatti la nostra molecola impiegherebbe 
diverse ore per percorrere i pochi metri che ci separano dal forno 
(e la pizza sarebbe carbonizzata da un pezzo). Ma qual è allora 
l'ingrediente che ci manca per spiegare la rapidità con la quale i 
profumi ci raggiungono? 

Riesaminando più attentamente la questione, ci accorgiamo di 
aver trascurato un aspetto determinante: oltre al moto individuale, 
e casuale, di agitazione termica, le molecole sono coinvolte in 
un movimento collettivo. Quest'ultimo è organizzato in modo 
coerente su scale spaziali che, nel nostro esempio, possono essere 
dell'ordine di un millimetro, e quindi svariati ordini di grandezza 
più grandi di quelle molecolari (che sono intorno al miliardesimo 
di metro). Grazie a questa proprietà non è necessario mettere a 
fuoco il moto delle singole molecole, ma è sufficiente seguire la 
traiettoria di una piccola porzione di aria una «particella fluida» 
delle dimensioni di un millimetro cubo la cui traiettoria è rappre- 
sentativa del moto medio delle molecole che la compongono. 

I moti di un fluido 

Dal punto di vista matematico la descrizione del moto di un 
fluido è regolata da equazioni note da più di centocinquanta 
anni, derivate per la prima volta nel 1827 da Claude Navier, 



MOTO BROWNIANO E DIFFUSIONETURBOLENTA 



Dal punto di vista matematico, il moto di un fluido 
è descritto da equazioni elaborate oltre un secolo e 
mezzo fa, ma la loro soluzione è tutt'altro che semplice, 

■ Uno dei moti più interessanti dei fluidi dal punto di 
vista pratico è la turbolenza, una forma di movimento 
apparentemente disordinato il cui esito diviene 
rapidamente impredicibile. 

■ Simulando l'evoluzione del moto turbolento con i 
supercomputerè possibile osservare la formazione 
di moti collettivi che danno orìgine ai filamenti di 
vortici! à, cicloni in miniatura in cui le particelle di 
fluido vengono accelerate a valori estremi. 

■ Chiarire i meccanismi della turbolenza ci permetterebbe 
di studiare fenomeni come la diffusione degli inquinanti 
in atmosfera o la dispersione di agenti patogeni. 



L'OSSERVAZIONE DEL MOTO TURBOLENTO nel fiume Arno in una pagina 
di appunti leonardeschi, Leonardo full primo a caratterizzare questi moti 
come «turbolenti», con la stessa accezione utilizzata oggigiorno. 

ancorché sulla base di ipotesi non del tutto motivate. Nel 1843 
Jean-Claude Barre de Saint- Venant ottenne la stessa equazione 
di Navier seguendo un approccio differente, che gli evitò di 
cadere nell'errore del suo illustre predecessore. Tuttavia, per 
un'inspiegabile circostanza, queste equazioni non portano il 
suo nome, ma sono invece universalmente note come le equa- 
zioni di Navier- Stokes, anche se George Gabriel Stokes leticavo 
soltanto due anni dopo la pubblicazione dei risultati dì Saint- 
Venant. 

Da allora, innumerevoli esperimenti di laboratorio hanno 
confermato la validità di queste equazioni per descrivere il moto 
dei fluidi. Solo molli anni dopo, verso il 1917, grazie allo svilup- 
po della meccanica statìstica promosso da Ludwig Boltzmann 
( 1872), Sydney Chapman e David Enskog riuscirono a derivare 
le equazioni di Navier- Stokes partendo dalla descrizione micro- 
scopica del moto delle molecole di fluido. Nonostante la loro 
semplicità formale, le equazioni di Navier- Stokes ammettono 
una varietà di soluzioni che basta a rendere conto degli innume- 
revoli fenomeni che si osservano nell'esperienza quotidiana. Tra 
questi, uno dei più affascinanti è sicuramente la turbolenza, cioè 
il moto altamente irregolare e impredicibile del fluido. 

Identikit della turbolenza 

Un tratto caratteristico del flusso turbolento di un fluido è la 
sua grande efficacia nel disperdere le particelle. Tenendo conto 
del moto irregolare dell'aria, si può stimare che un gruppo di 
molecole inizialmente localizzate in una regione di pochi mil- 
limetri cubi si separeranno fino a distanze di circa un metro in 
una manciata di secondi, in accordo con l'esperienza [sì veda il 
box nella pagina a fronte}. 

Se alle «molecole di profumo di pizza» sì sostituiscono delle 
polveri inquinanti, oppure degli atomi radioattivi, o ancora dei 
batteri nocivi, si comprende l'importanza pratica di avere una 



Come osservato dal botanico Robert Brown nel 182? e 
spiegato teoricamente da Einstein nel 1905, una particella 
microscopica immersa in un liquido a riposo è soggetta a un moto 
erratico conseguente alle collisioni con le molecole. Consideriamo 
una macchia colorata composta da molte particelle microscopiche 
indipendenti soggette a modo browniano. L'area della macchia, 
definita dal quadrato della sua dimensione R [in blu nella figura in 
basso) cresce in modo «diffusivo», cioè linearmente nel tempo 
secondo un coefficiente di proporzionalità Oq, detto coefficiente di 
diffusione, il cui valore è inversamente proporzionale al diametro 
delle particelle e proporzionale alla temperatura del liquido. Per 
situazioni macroscopiche, come la dispersione di inquinanti in 
atmosfera, la legge di diffusione browniana è in pratica irrilevante, 
a causa del piccolissimo valore dì D Q . 

Nel 1926 il meteorologo Lewis Fry Richardson ottiene su 
basi empiriche la legge di diffusione in turbolenza che prende il 
suo nome. A partire da una serie di osservazioni in atmosfera, 
Richardson intuisce che in casi macroscopici il coefficiente D 
va rimpiazzato con un coefficiente di diffusione turbolento D T . 




Losservazione sperimentale mostra non solo che r è molto 
m aggiore d i O , ma anche che i I suo va lore aumenta a I crescere 
delle dimensioni della macchia (cioè col tempo) secondo una 
semplice legge. Come conseguenza della legge di Richardson, la 
diffusione in turbolenza è un processo esplosivo, per cui la nuvola 
di colore [in rosso] si allarga tanto più velocemente quanto più è 
grande, generando una struttura ramificata frattale. Il quadrato 
della dimensione R della «nuvola frattale» cresce secondo il cubo 
del tempo, molto più velocemente che nel moto browniano. 

Le legge di Richardson ha una validità universale dalle più 
piccole scale della turbolenza (pochi millimetri) fino a scale 
di centinaia dì chilometri in atmosfera. Malgrado la sua età 
e l'importanza per le applicazioni, l'osservazione della legge 
di Richardson è tuttora una sfida perle moderne tecniche di 
laboratorio, a causa della difficoltà di seguire le traiettorie di 
molte particelle in un flusso altamente turbolento In questo 
contesto, l'analisi numerica di simulazioni ad alta risoluzione 
di flussi turbolenti, come quella descritta in questo articolo, 
rappresenta uno strumento alternativo dì indagine. 



Diffusione 
turbolenta 




LA DIFFUSIONE TURBOLENTA (in rossa) di una nuvola di panicene 
inizialmente concentrate in un volume infinitesimo. La nuvola 
concentrica di particelle blu rappresenta invece it risultato di un semplice 
moto Browniana allo stessa istante di tempo. Sopra, ta legge di crescita 
di Richardson per il quadrato della dimensione caratteristica di una 
nuvola di particelle in un fluido turbolento [curva in rosso] confrontata 
con il caso del moto browniana (curva in blu}. Nel primo caso ta crescita 
è motto più rapida, permettendo alle particelle trasportate di esplorare 
una regione del fluida molto più vasta a pariti di tempo. 



descrizione precisa della dispersione turbolenta, che ha un ruolo 
chiave in un numero impressionante di fenomeni. 

Lo studio sperimentale del moto delle particelle in un flusso 
turbolento si è però dimostrato particolarmente difficile. Diversi 
studi sono stati condotti seguendo le traiettorie di palloni rilasciati 
in atmosfera. Ma questo approccio presenta diversi svantaggi, 
principalmente dovuti alla grande variabilità della circolazione 
atmosferica e al costo elevato delle sonde. Ne consegue che è 
praticamente impossibile effettuare esperimenti con un grandis- 



simo numero di traccianti in condizioni controllate e ripetibili. Per 
queste ragioni si è tentata la via delle esperienze di laboratorio, che 
possono essere condotte con costi più contenuti 

In questo caso si possono seguire le traiettorie di minuscole 
sfere di metallo o di plexiglas che riflettono la luce emessa da un 
laser. Tuttavia, fino a oggi none stato possibile seguire il percorso 
compiuto dalle particelle con un'elevata risoluzione temporale 
e per intervalli di tempo sufficientemente lunghi. Inoltre, non 
appena ci si pone l'obiettivo di seguire più di una manciata di 



92 LE SCIENZE 



443 /luglio 2005 



www.lescienze.it 



LE SCIENZE 93 



LE EQUAZIONI DI NAVIER-STOKES E IL MOTO TURBOLENTO 



LJ evoluzione spazio-temporale del campo di velocità di un fluido, 
■ sia allo stato liquido che gassoso in condizioni di temperatura e 
densità non critiche, sono descritte da un sistema di equazioni 
differenziali, le equazioni di Navier-Stokes, Queste equazioni non 
sono altro che l'applicazione della legge di Newton, F - ma, a un 
volume infinitesimo del fluido. Le forze di superficie che agiscono 
su una qualsiasi porzione di fluido, come la forza di pressione e ia 
forza viscosa, sono dovute all'interazione tra molecole contigue. A 
causa del carattere dissipativo della viscosità, è necessario fornire 
continuamente energia affinché il fluido rimanga in moto. Le forze 
esterne, in generale forze di volume, possono essere la gravità 
oppure u n qualunque meccani smo di agitazione meccanica, come 
per esempio un ventilatore. Le equazioni di Navier-Stokes sono un 
problema aperto, I matematici sono interessati a dimostrare 
l'esistenza ed unicità globale delle soluzioni: un problema che vale 
il milione di dollari messo in palio dal Clay Mathematics Instrtute. I 
fisici sono invece concentrati sullo studio dei fenomeni che le 
equazioni di Navier-Stokes sono in grado di descrivere. Tra questi, il 
moto turbolento è senza dubbio il meno compreso e il più 
affascinante. Ma perché le equazioni di Navier-Stokes sono così 
difficili? E come è possibile che esse ammettano soluzioni delle 
quali abbiamo scoperto l'esistenza solo grazie all'osservazione 
della natura e più di recente con le simulazioni al computer? 

La difficoltà è legata al fatto che si tratta di equazioni non lineari, 
cioè che coinvolgono prodotti delle variabili che si vogliono ricavare, 
qui le velocità. La non linearità implica che l'effetto prodotto dalla 
somma di piccole fluttuazioni simultanee nel campo di velocità non 
coincide con la somma degli effetti prodotti dalle singole 
fluttuazioni. La conseguenza più importante è che l'evoluzione 
spazio-temporale di un flusso soggetto a due condizioni iniziati 
leggermente differenti raggiunge stati macroscopici molto diversi 
in breve tempo. È a causa di questa forte dipendenza dalle 
condizioni iniziali che l'evoluzione temporale diventa rapidamente 
ìmpredicibile. Questo fenomeno prende il nome di caos 
deterministico: concetto introdotto perla prima volta nel 19 G3 dal 
meteorologo Edward Lorenz. Esiste un numero adimensionale in 
grado di fornire una stima «a priori» del grado di caoticità di un 
fluido turbolento: il numero di Reynolds, Re = U x L / v. Questa 
grandezza è una stima del peso relativo dei termini non lineari 
rispetto a quelli lineari nelle equazioni di Navier-Stokes. Il numero di 
Reynolds cresce con la velocità caratteristica del flusso Uè 
l'estensione il delle scale spaziali su cui il moto si sviluppa, mentre 
maggiore è la viscosità del fluido, v, minore è la turbolenza. 

All'aumentare del numero di Reynolds il moto diventa sempre più 
caotico e Ìmpredicibile. Gli esperimenti mostrano che i fluidi 
subiscono vere e proprie transizioni nel comportamento qualitativo 
del loro moto al variare di Re. Pensiamo a una pentola d'acqua sul 
fuoco. AM'au mentare della quantità di calore assorbita, il fluido 
passa da uno stato di quasi quiete [numero di Reynolds piccolo) a 
un moto convettivo e predicibile, costituito da oscillazioni regolari e 
periodiche su grande scala. Poco prima dell'ebollizione, ad alti 
numeri di Reynolds, si sviluppa un moto fortemente caotico, in cui 
le fluttuazioni dell'acqua avvengono con frequenze differenti e su 




LA CONFIGURAZIONE ISTANTANEA DEL CAMPO DI VELOCITÀ di un fluido 
turbolento calcolata con una sìmu laiio ne numerica su una grìglia cubica 
di 1024 punti di lato. Le frecce indicano l'intensità e la direzione del campo 
in un sottoinsieme di punti. Il numero di Reynolds è stimato a partire dal 
volume L occupato dal fluido, dall'intensità tipica del campo di velocità 
(data dalla media dell'ampiezza delle frecce su tutto il volume] e dalla 
viscosità molecolare del fluido in questione (per l'acqua a temperatura 
ambiente v = 1,0 x 10~ E m's -1 ]. Negli esperimenti di laboratorio, la 
turbolenza sviluppata ad alti numeri di Reynolds si ottiene aumentando 
le dimensioni dell'apparato oppure l'intensità delle forze e steme che 
agitano il moto. Nelle simulazioni invece è più semplice tenere invariati la 
geometria e il tipo di forze esteme al diminuire della viscosità molecolare. 

tutte le scale, in modo del tutto Ìmpredicibile. Si parla in questo caso 
di «turbolenza sviluppata». I flussi turbo lenti ad a Iti Re perdo no in 
predi cibilità ma hanno proprietà statistiche riproducibili, rendendo 
così possibile una descrizione in termini di quantità medie. 
La turbolenza sviluppata è considerata il più importante 
problema di fisica classica irrisolto. Si tratta, nel linguaggio dei fisici 
teorici, di un problema di teoria dei campi fortemente non lineare. 
Grazie al contributo di Andrei N. Kolmogorov negli anni quaranta, si è 
ipotizzato che il campo di velocità di un fluido turbolento sia 
tutt'attro che la semplice sovrapposizione di fluttuazioni incoerenti. 
Analizzando il segnale temporale di un anemometro posto nel fluido 
si misurano fluttuazioni di velocità su un vasto intervallo di 
frequenze con caratteristiche simili a quelle del grafico «rugoso» di 
un frattale. La rugosità, però, non è uniforme, ma può variare in 
modo intermittente, generando una distribuzione detta multif ratta le. 





UN ESEMPIO DI TRAIETTORIA 
SPIRA LEGGI ANTE intomo a strutture 
vorticose. I diversi colori codificano 
l'intensità del modulo della velocità. 



particeijé simultaneamente diventa molto diffìcile attribuire sen- 
za aatfjiguità le tracce luminose alle corrispondenti particelle, 
tome superare questa situazione di stallo? Lo studio dei- 
evoluzione del fluirlo in silico, cioè simulata al computer, è la 
soluzione a questi problemi. Beninteso, anche in quest'ultimo 
caso le difficoltà non mancano. Per calcolare l'evoluzione di 
una porzione di fluido di un metro cubo - composto cioè ria un 
miliardo dì particelle fluide di un millimetro cubo di volume 
ciascuna - per una durata di tempo apprezzabile, ii compu- 
ter deve effettuare circa un milione di miliardi di operazioni. 
Diventa quindi necessario fare ricorso ai supercalcolatori come 
quelli messi a disposizione dal CINECA (51 veda il bojr a p. 96). 
Un vero e proprio esperimento, il primo al mondo condotto con 
questa risoluzione spaziate e questa durata temporale, che ha 
richiesto ben 50.000 ore di calcolo distribuite su 64 processori 
(corrispondenti a circa 30 giorni di simulazione) è stato condotto 
nell'estate 2003. 

Un tornado in miniatura 

Le equazioni di Navier-Stokes per il moto turbolento sono 
state discretizzate su un reticolo cubico di 1024 punti per lato, 
per un totale dì più di un miliardo di punti. Il fluido turbolento 
è stato riempito in modo uniforme con due milioni di particelle 
virtuali le cui traiettorie sono state registrate per poterle poi 
analizzare in dettaglio. Questa base di dati permetterà di studia- 
re la dispersione in turbolenza con una risoluzione temporale 

e una campionatura statistica 




EVENTI IM PROBABILI. I simboli in rosso indicano il logaritmo della densità di 
probabilità dell'accelerazione del fluido turbolento, in unità della deviazione 
standard. Si noti la presenza di eventi fino a 80 deviazioni standard. Ne! 
caso di una distribuzione normale di Gauss [in blu] questi eventi avrebbero 
una probabilità di manifestarsi notevolmente minore. Nel riquadro, un 
allargamento della regione vicino al picco della distribuzione di probabilità. 



mai raggiunte prima. Grazie 
alle simulazioni al computer 
appare evidente che, dietro il 
loro aspetto disordinato e appa- 
rentemente aleatorio, i flussi 
turbolenti nascondono confi- 
gurazioni caratterizzate da un 
ordine insospettato. Già Leo- 
nardo da Vinci, peraltro, aveva 
osservato e fedelmente ripro- 
dotto nei suoi disegni la molti- 
tudine di strutture organizzate 
presenti nei flussi turbolenti. 

In alcune regioni del fluido, 
il moto è sincronizzato in modo 
da persistere per tempi relati- 
vamente lunghi, influenzando 
drasticamente il moto delle 
particelle. Tra queste strutture 
le più interessanti sono i fila- 
menti di vorticità: si tratta di 
veri e propri cicloni in miniatu- 
ra che catturano le particelle e 
le fanno spiraleggiare diverse volte prima di espellerle {si veda la 
figura in a Ito). In questi avvitamenti l'accelerazione sperimentata 
dalla particella raggiunge valori estremi, fino a 80 volte maggiori 
del proprio valore caratteristico {si i>eda ia figura qui sopra). 

Per avere un'idea dell'intensità di questi eventi, consideriamo 
il moto dell'aria all'altezza di un metro da terra in una giornata 



94 LESCIENZE 



443 /luglio 2005 



www.lescienze.it 



LESCIENZE 95 




La simulazione numerica è ormai da tempo una terza via 
di indagine scientifica, accanto ai tradizionali metodi 
della ricerca teorica e sperimentale, tanto che si parla ormai 
di scienze computazionali. Il principale vantaggio della 
simulazione numerica è la sua versatilità, che consente di 
esplorare regimi di comportamento spesso inaccessibili 
alle teorie analitiche e diffìcilmente realizzabili pervia 
sperimentale, oppure semplicemente troppo costosi, vuoi 
in termini economici, vuoi in termini temporali. Oggigiorno 
la ricerca scientifica, di base e applicata, in campi quali la 
meteorologia, la geofisica e la modellizzazione industriale, 
viene condotta con un forte supporto di simulazione numerica 
all'attività sperimentale. Questo motiva la progettazione e l'uso 
di strumenti di calcolo sempre più potenti, in grado di eseguire 
più attività contemporaneamente, in parallelo. La tecnologia 
architetturale dei supercalcolatori ha permesso di raggiungere 
I traguardo del teraflop (1000 miliardi di operazioni al secondo] 
nel 1998. Nella classifica dei 500 supercomputer più potenti, 
I primo posto è occupato da BlueGene/L, il supere al colato re 
dell'IBM installato al Lawrence Livermore National Laboratori), 
n California, che raggiunge i 70 teraflop con 32768 processori, 
primi sistemi Italiani che compaiono nella lista Top 500 sono 
due supercomputer CINECA, che si posizionano intorno al 
60" posto, utilizzati per effettuare la simulazione descritta 
nel testo. Il CINECA è un consorzio tra 25 università italiane e 
CNR che ha come missione istituzionale quella di integrare 
ed estendere la disponibilità del calcolo ad alte prestazioni al 
servizio della ricerca. Tra gli obiettivi strategici vi è il supporto 
alla ricerca per le grand challenge applications derivanti da aree 
chiave come la scienza dei materiali, l'astrofisica, la biologia, la 
chimica computazionale e la fluidodinamica. 

con il contributo di Carlo Cavalloni, Giovanni Erbacei e Satini Succi 



in cui soffia una leggera brezza a circa 20 chilometri orari. L'ac- 
celerazione centripeta dentro un microtornado può arrivare in 
questo caso fino 100 g (cento volte l'accelerazione di gravità). Per 
confronto, si pensi che una persona non può sopportare accele- 
razioni maggiori di IO g per più di pochi secondi e valori intorno 
ai 100 g provocano certamente la morte istantanea. 

Fortunatamente questi cicloni sono in scala molto ridotta, e 
perun essere umano è impossibile accorgersi della loro presenza 
senza ricorrere a strumenti appropriati. Per gli insetti invece sono 
eventi reali che condizionano pesantemente le loro capacità di 
volo. È per questo che quando c'è vento forte le zanzare preferi- 
scono restare aggrappate a un filo d'erba piuttosto che volare... 

Ma quali sono le forze responsabili di questi tornado in sedice- 
simo? L'analisi numerica mostra che i filamenti di vortìcità sono 
regioni in cui la pressione è molto più bassa di quella dell'ambiente 
circostante. Le particelle che si affacciano incautamente sull'orlo 
di queste depressioni vengano spinte verso l'interno del vortice 
dalle particelle più esterne. Siccome per l'aria, l'acqua e molti altri 
fluidi in condizioni normali è impossibile comprimere più di tanto 
le particelle nello spazio, queste ultime cominciano a girare verti- 
ginosamente intorno alla regione di bassa pressione seguendo le 
traiettorie spiraleggianti osservate nella figura in alto a p. 95. 

Disordine organizzato 

Finora ci siamo concentrati sulle proprietà di una singola 
traiettoria di una particella del fluido, ma che cosa accade a due 
particelle inizialmente affiancate? A causa del moto disordinato 
del fluido la coppia tenderà a separarsi molto rapidamente. Nel 
1926 Lewis Richardson suggerì che in media la distanza tra due 
particelle aumenta proporzionalmente al tempo trascorso dal- 
l'istante iniziale elevato alla potenza 3/2. Richardson stesso intuì 
che la presenza di una legge di scala con un esponente fraziona- 




GLI AUTORI 



LUCA BIFERALE è professore associato di fisica teorica all'Università 
di Roma Tor Vergata. Si occupa anche di modelli deterministici per il 
trasferimento di energia, della teoria multifrattale e dell'anisotropia 
in turbolenza. GUIDO BUFFETTA è professore associato di fisica spe- 
rimentale all'Università di Torino. Sì occupa della teoria dei sistemi 
dinamici, di turbolenza di trasporto e diffusione in flussi geofisici. 
ANTONIO CELANI è ricercatore in fisica teorica al CNRS di Nizza. I suoi 
temi di ricerca principali sono la turbolenza e la dispersione in fluidi 
semplici e complessi, quali le soluzioni di polimeri, le sospensioni di 
particelle e i fluidi magnetizzati. ALESSANDRAS. LAN0TTE è ricerca- 
t ri ce a 1 1' I s t ituto d i scienze de 1 1' atm osf era e del clim a del C N R a Lecce. 
Lavora anche sui coefficienti di trasporto in fluidi magnetizzati e sulle 
proprietà statistiche dei flussi turbolenti. FEDERICO TOSCHI è ricerca- 
tore presso l'Istituto per le applicazioni del calcolo del CN R a Roma. Si 
occupa anche delle proprietà statistiche della turbolenza. E esperto 
di calcolo parallelo su supercalcolatori commerciali e su calcolatori di 
tipo APE, progettati e sviluppati in Italia dall'Istituto nazionale di fisica 
nucleare ( IN FN ] . Luca Biferale, Guido Boffetta e Federico Toschi sono 
inoltre ricercatori associati all'INFN. 



PER APPROFONDIRE 



BIFERALE L, BOFFETTA G., CELANI A. r LANOTTEA.S. e TOSCHI F., Pam- 
ele trapping in three dimensionai futly developed turbutence, in 
«Phujsics of Fluids», Voi. 1?, p. 021?01, 2005. 

LA PORTA A„ VOTH G.A., CRAWFORD A. M„ ALEXANDER! e BODENSCHA- 
TZ E., Fluid particle acceleratìons in futly developed turbolente, in 
«Nature», Voi. 409, p. 1017, 2001. 

MORDANT N., METZ P„ MICHEL 0. e PINTON J.-R, Measurement of 
Lagrangian velocity infully developed turbutence, «Physical Review 
Letters».Vol. 87, p. 214501, 2001. 

MONIN A.S. e YAGLOM A.M., Statistica! Fluid Mechanics, Voi 2, MIT 
Press, Cambridge (Massachusetts], 1975. 



CONFIGURAZIONE ISTANTANEA DI UN GRUPPO DI TETRAEDRI definiti dalla 
presenza di quattro particelle net vertici. Per studiare l'evoluzione Temporale 
di strutture tridimensionali le particelle sono state introdotte al tempo 
iniziale in modo da formare piccoli tetraedri regolari. Durante l'evoluzione, 
le particelle si separano dando luogo a tetraedri di forme e dimensioni 
differenti. Si noti la presenza di tetraedri molto irregolari, risultato 
di correlazioni non banali tra le particelle che ne definiscono i vertici. 

rio è intimamente legata alla natura geometrica della traiettoria, 
che in questo caso è una curva estremamente convoluta: nel 
linguaggio moderno, un frattale. La misura sperimentale della 
separazione tra due particelle presenta difficoltà ancora più serie 
dì quelle incontrate nello studio delle traiettorie di una singola 
particella. L'analisi dei dati ottenuti dalle simulazioni ha invece 
permesso di confermare con grande accuratezza la validità della 
legge di Richardson, 

E quando si considerano più di due particelle? In questo caso 
si manifesta un nuovo aspetto del problema della dispersio- 
ne. Se consideriamo gruppi di tre particelle e le congiungiamo 
idealmente mediante linee rette otteniamo dei triangoli, mentre 
per quattro particelle avremo delle figure solide, tetraedri irre- 
golari. Per quanto riguarda la taglia di queste figure geometri- 
che, definita per esempio come la somma delle lunghezze degli 
spigoli, questa cresce in modo simile alla separazione tra due 
particelle. Ma la taglia non definisce in modo univoco la figura 
geometrica, in quanto è necessario specificare anche gli angoli 
tra i diversi spigoli. 

Quale sarà la forma caratteristica di un tetraedro che evolve in 
un flusso turbolento? Se le quattro particelle che lo compongono 
si muovessero indipendentemente Tutta dall'altra, non ci sarebbe 
una forma privilegiata, e ci sarebbe un egual numero di tetraedri 
di tutte le forme possìbili. Ma il risultato delle simulazioni mostra 
che la realtà è differente. I tetraedri tendono a disporsi in strutture 
appiattite e piuttosto allungate, delle specie dì «lasagne» irregolari 
(si veda la figura in alto). La presenza dì queste forme tìpiche 
denota l'esistenza di correlazioni tra le traiettorie, che ancora una 
volta ci confermano che al di là del disordine che caratterizza la 
turbolenza c'è un'organizzazione imposta dalle leggi del moto 
dei fluidi. 

Quali sono i vantaggi che si possono trarre dallo studio della 
turbolenza con le simulazioni al computer? Dal punto di vista 
applicativo, per esempio, una conoscenza precisa delle proprietà 
statistiche del moto delle particelle permette di migliorare sensì- 
bilmente i modelli matematici usati per valutare la dispersione 
di inquinanti in atmosfera. Questi modelli sono largamente usati 
negli studi di impatto ambientale e in relazione allo stato della 
qualità dell'aria. 

Per quello che riguarda gli aspetti più squisitamente teorici, 
il cambio di prospettiva che si ottiene osservando il trasporto di 
particelle in fluidi turbolenti è di cruciale importanza. Infatti, ci 
si aspetta che le grandezze misurate nelle immediate vicinanze 
da un osservatore «a cavallo» di una particella siano universali. 
Questo equivale a dire che esistono grandezze che non dipendo- 
no dal modo in cui la turbolenza è generata, per esempio tramite 
un getto d'acqua o da un ventilatore. La ricerca e la misura di 
queste osservabili rappresenta l'essenza della turbolenza vista 
come problema della fisica teorica. E 



96 LE SCIENZE 



443 /luglio 2005 



www.lescienie.it 



LESCIENZE 97 



Alhazen: 



Nel X secolo, conducendo i primi esperimenti sistematici 

e riproducibili seicento anni prima di Galileo, lo studioso 

musulmano Alhazen gettò le basi dell'ottica e dell'astrofisica 



l'età dell'oro della scienza islamica 



di Gotthard Strohmaier 




PER VOLONTÀ DEL CALIFFO. Il Cairo, in un'incisione ottocentesca di David Roberts. Alhazen 
trascorse gran parte detta sua esistenza nella capitale egiziana, dove si trasferì su invito 
del califfo at-Hakim, a cui aveva prospettato un metodo per regolamentare il carso del Nilo. 




Ila scienza araba del Medioevo di solito si rico- 
nosce il merito di aver trasmesso all'Occidente le 
conoscenze delle antiche civiltà della Grecia e 
dell'India. Questa visione è senz'altro corretta, 
ma è solo una faccia della verità. Quando, per 
esempio, Gherardo da Cremona, il membro 
più importante della scuola di traduttori di 
Toledo fondata nel X IT secolo, traspose 
in latino la versione araba dell' Alm agesto di Tolomeo, recuperò le 
conoscenze del massimo trattato di astronomia dell'antichità. E il 
Catione di medicina del medico persiano Avicenna (e. 980- 1037), 
tradotto in latino dallo stesso Gherardo, era essenzialmente un 
abile compendio della medicina di Galeno di Pergamo (129-216). 
L'Occidente non aveva invece conosciuto altri lavori innovativi, 
come le opere di al-Biruni, che aveva addirittura superato la 
Scolastica cristiana. In un caso di straordinaria importanza, però, 
originalità e fortune coincisero. Gherardo da Cremona tradusse 
un piccolo trattato intitolato De speculis comburetitibus (Sugli 
specchi ustori). Intorno al 1200 apparve inoltre - tradotto in 
modo imperfetto da mano ignota - De aspectibus, un ampio 
trattato sui problemi dell'ottica; quest'opera fu poi stampata nel 
1 572 a Basilea col titolo di Opticae thesaurus, e fu fondamentale 
per lo sviluppo di questa scienza, perché in essa venivano usati 
per la prima volta esperimenti sistematici in ricerche scientifiche. 
Entrambi gli scritti erano opera di Abu Ali al-Hasan ibn al-Hasan 
ibn al-Haytham, meglio conosciuto in Europa con il nome 
latinizzato di Alhazen. 

Vita di un solitario 



r * 




■ 



fMfMM 



■ 



■ 

AjC*L I 
\+ u ■ 



..< ;:.*',- 



ir<fJM' 



t*Ui nr-c . 






■ 






n MM : 






■ 
■ 

! 



«e irti*.- 





Alhazen nacque nel 965 a Basso ra, nel sud dell'Iraq. Ci ha 
lasciato un'autobiografìa, nella quale però non ci rivela nulla 
sulle circostanze esterne della sua vita, descrivendoci solo il 
suo percorso intellettuale. Riconosce dì sentirsi respinto dalla 
molteplicità delle teorie religiose, ritenendo che la verità sì possa 
trovare solo là dove si coalizzano l'esperienza sensibile e la 
speculazione razionale, e - nel modo più eccelso - nelle opere 
del filosofo Aristotele. «Ero cosi come disse Galeno nel VII libro 
del Methodus medendì {Metodo terapeutico}», scrive rivolgendosi 
ai suoi allievi. «Non so come mi sia accaduto dal tempo della 
mia giovinezza: puoi considerarlo un caso straordinario o 
un'ispirazione divina, o anche chiamarlo follia o come meglio ti 
pare, ma cominciai a disprezzare e a non tenere in alcun conto la 
massa della gente e a perseguire l'amore perla verità e il desiderio 
di sapere, convincendomi che in questo mondo l'uomo non può 
conseguire niente di meglio e non può avvicinarsi a Dio più che 
in queste due cose». 

11 riferimento a un'autorità del mondo antico come il medico 
Galeno, che fu studiato con zelo anche da non medici come 
Alhazen, non è casuale. Anche l'atteggiamento elitario nei 
confronti dei comuni mortali è tipico degli intellettuali islamici 
del Medioevo. L'espressione «avvicinarsi a Dio» è stata introdotta 
nel testo di Galeno dal traduttore arabo- e ristia no Hunayn ibn 
Ishaq, e non si trova nel testo greco. Ma la parola «follia», usata 
dal medico alessandrino solo come espressione retorica, avrebbe 
assunto un ruolo più serio nella vita di Alhazen. 

Alhazen si sottrasse alla carriera di funzionario a cui era 



TRA PASSATO E PRESENTE. La visione degli edifìci monumentali dell'antico 
Egitto [a frante, il santuario di Iside sull'isola di File, presso Assuan, 
in una stampa ottocentesca di David Roberts) persuase Alhazen che 
il suo piano per regolamentare il Mio era impraticabile. Sopra, una pagina 
del Canon Medìdnae di Avicenna, contemporaneo di Alhazen. 

In sintesì/Dall'ottica al cielo 



■ Mille anni fa, il sapiente musulmano Ibn al-Haytham 
- conosciuto in Europa con il nome latinizzato di 
Alhazen - gettò le basi dell'ottica moderna. 

■ Alhazen fu il primo ricercatore a compiere esperimenti 
sistematici, sei secoli prima di Galilea. Particolarmente 
importanti furono i suoi esperimenti nel campo 
dell'ottica; quando, nel XVI secolo, fu stampata 
l'edizione latina della sua opera, si rivelò fondamentale 
per lo sviluppo di questa disciplina. 

■ Le ricerche sulla luce portarono Alhazen a occuparsi 
con un certo successo anche di alcuni importanti 
problemi astronomici, tra cui la cosiddetta «illusione 
della Luna». 

■ Benché l'autobiografìa lasciata dallo studioso si 
riferisca esclusivamente al suo percorso intellettuale, 
si conoscono le tappe della sua vita, che si svolse tra 
Bassora (dove nacque nel 965], Baghdad e il Cairo, 
dove morì nel 1039. 



stato destinato con uno stratagemma: fìnse di essere incapace 
di intendere e di volere. Potè così dedicarsi alla composizione di 
scritti filosofici e scientifici, prima a Bassora, e poi a Baghdad e 
nella città persiana di Ahwaz. L'elenco dei suoi scritti matematici 
è impressionante. In essi, si occupa delle sezioni coniche, della 
quadratura del cerchio, della trisezione dell'angolo e della 
costruzione di un ettagono inscritto in un cerchio. Si occupò 
anche di matematica pratica per i commercianti, e della 
determinazione della qìbla, l'orientamento obbligatorio dei 
fedeli in direzione della Mecca durante la preghiera, che era un 
problema di trigonometria sferica. 

Poiché non c'erano università che avessero cattedre retribuite 
per discipline profane, per potersi dedicare con agio alle sue 
ricerche un uomo come Alhazen doveva essere legato a una corte, 
o ricoprire impiego amministrativo tranquillo, come quello che 
gli venne offerto. Ricevette infatti una chiamata dall'Egitto per 
ricoprire un posto prestigioso. La sua affermazione che fosse 
possibile regolamentare il corso del Nilo era giunta alle orecchie 
del califfo al-Hakim, che regnò in Egitto dal 996 al 1021. II 
sovrano non trascurò di sottolineare la serietà dell'invito con una 
congrua somma di denaro. Alhazen fu ricevuto amichevolmente 
nella capitale egizia da poco fondata, Midr al-Qahlra, ratinale 
città del Cairo. E, dopo essersi riposato delle fatiche del viaggio, 
cominciò a risalire 11 corso del fiume con un gruppo di artigiani. 

Alla vista delle piramidi e di altri edifici monumentali, il 
matematico cominciò però ad avere i primi dubbi: se gli egizi 
erano riusciti a costruire opere come quelle, avrebbero certamente 



regolato da tempo anche il corso del fiume, se fosse stato possibile. 
Alhazen proseguì il viaggio fino alle cateratte nei pressi di Assuan, 
dove si rese definitivamente conto che il progetto sarebbe stato 
inutile. Al-Hakim giudicò fondate le sue conclusioni egli assegnò 
un impiego amministrativo. Alhazen accettò, non tanto perché Io 
reputasse un incarico interessante, quanto per timore: sapeva di 
non poter più contare sulla benevolenza del califfo. Per liberarsi 
del peso dell'incarico e poter tornare a dedicarsi ai suoi studi, fece 
di nuovo ricorso allo stratagemma di fingersi pazzo. 11 califfo si 
preoccupò personalmente del caso, prese in custodia i beni di 
Alhazen e incaricò dei servitori di occuparsi di luì e al tempo 
stesso di impedirgli di uscire di casa. 

Un califfo imprevedibile 

Uno dei tratti più compassionevoli della cultura islamica 
al suo apogeo era la cura dei malati di mente, che venivano 
ricoverati in apposite istituzioni o in speciali reparti di ospedale. 
Ma a volte era il califfo stesso, con le sue disposizioni, a dar 
modo di dubitare della sua salute mentale. Per ordine di al-Hakim 
si dovettero distruggere tutti gli strumenti musicali, ma anche 
le scacchiere e i pezzi del gioco degli scacchi. Alle donne era 
proibito uscire di casa, eccezion fatta per le levatrici. Le leggi 
tradizionali sui cibi furono inasprite ed estese ai mitili e ad altri 
organismi marini. Ai cristiani fu proibito bere vino durante la 
Messa; essi dovevano inoltre distinguersi dai credenti portando 
al collo una croce, persino quando si recavano ai bagni pubblici. 



100 LE SCIENZE 



443 /luglio 2005 



www.lescienze.it 



LE SCIENZE 101 



Ma l'atto più efferato di al-Hakim fu la distruzione della chiesa 
del Santo Sepolcro a Gerusalemme, che ebbe grande risonanza 
a livello mondiale, spingendo i cristiani europei a coalizzarsi per 
intraprendere una «guerra santa». 

Il califfo non guardava per il sottile quando si trattava di 
giustiziare chi gli creava problemi, e consegnò al boia anche uno 
zio per parte di madre, che era un patriarca greco-ortodosso. 
Come l'imperatore Nerone a Roma, fece addirittura appiccare un 
incendio al Cairo. La follia imperiale fu connessa con una rigorosa 
ascesi religiosa. Quando, nel 1021, non tornò da una cavalcata 
nei dintorni della città, il popolo fu ben lieto di prestar fede alla 
voce di un attentato. I suoi sostenitori più fanatici pensavano 
però che si fosse solo allontanato e che prima o poi avrebbe fatto 
ritorno. Da questo gruppo ebbe origine lo scisma dei drusi, ancora 
oggi presenti in Libano e in Israele, che continuano a ritenere al- 
Hakim una manifestazione terrena della divinità. 

Dopo l'improvvisa scomparsa del califfo, Alhazen ricominciò 
a mostrarsi in pubblico, e tutti furono rassicurati sul recupero 
delle sue facoltà mentali. Si trovò una modesta abitazione vicino 
all'ingresso della moschea di al-Hazar, dove condusse un'esistenza 
appartata e serena fino alla morte, avvenuta intorno al 1039. Gli 
fu restituito il denaro confiscato da al-Hakim, che integrò con i 
proventi di un lavoro a cui ricorrevano molti eruditi del tempo: 
scriveva libri, e faceva ogni anno una copia degli Elementi di 
Euclide, dell'Almagesto di Tolomeo e dei cosiddetti «libri medi», 
un gruppo di antichi testi matematici e astronomici che venivano 
studiati dopo gli Elementi e prima dell'Almagesto, Alhazen era un 
ottimo calligrafo, e appena iniziava un lavoro c'era già qualcuno 
che gli offriva in anticipo la somma di 1 50 dinari d'oro. 



Triplici! uifus.direcU reflcxi Se refrafti, de 

quo opcica dilpucat,ar- 

gumenta. 






Esperimenti di ottica 



Fra la matematica e l'ottica c'è un legame particolarmente 
stretto, come enunciò Gusta ibn Luqa, traduttore cristiano del 
IX secolo: «La scienza più chiara è quella in cui hanno parte sia 
la scienza della natura sia la geometria, in quanto prende dalla 
scienza della natura la percezione sensibile e dalla geometria 
le dimostrazioni con l'aiuto di linee, lo non ho trovato nulla in 
cui queste due discipline appaiano unite in modo più bello e 
più perfetto che nella scienza dei raggi, soprattutto di quelli che 
vengono riflessi da specchi». 

Questo fu presumibilmente anche il motivo per cui Alhazen 
si trovò a occuparsi di ottica. In questo modo si riallacciò agli 
«antichi», come erano chiamati solitamente gli autori greci, ma lì 
superò verificandone le tesi con mezzi semplici. Alhazen affrontò 
questo compito non facendo ricorso a prove occasiona]!, come si 
faceva in precedenza, ma per mezzo di esempi ben studiati, che 
descrisse in modo così chiaro che chiunque poteva riprodurli. 
Si procurò lampade, specchi, tubi ottici (per eliminare le luci 
parassite, che potevano disturbare la visione), blocchi di vetro e 
i forni necessari per la fusione, allo scopo di dare loro la forma 
desiderata. 

Non sappiamo se Alhazen abbia potuto iniziarci suoi esperimenti 
già durante il califfato di al-Hakim. Possiamo però immaginare 
la scena, con gli assistenti impegnati a coprire e scoprire una 
serie di lampade mentre il maestro in una stanza vicina, oscurata, 
registrava entusiasta la conferma della sua teoria. 



Come funzionava l'esperimento? Le lampade erano situate 
in prossimità di una porta a due battenti che immetteva nella 
camera vicina; la porta era socchiusa, lasciando aperto solo uno 
stretto spiraglio. Le lampade proiettavano chiazze di luce sulla 
parete di fronte. I raggi di luce si incrociavano nella fessura, senza 
però influenzarsi reciprocamente, neppure quando dovevano 
attraversare del vetro colorato. La loro propagazione avveniva 
dunque indipendentemente e in linea retta. Inoltre, come Alhazen 
dimostrò in altri esperimenti, era possibile renderli sempre più 
sottili facendoli passare attraverso una sorta di diaframma 
dall'apertura regolabile, in modo che si avvicinassero all'ideale 
di una linea matematica. 

Alhazen trasferi poi questo tipo di osservazione ai corpi opachi, 
privi di luce propria, che si limitavano a riflettere la luce di una 
sorgente luminosa, per esempio del Sole. Anche qui, secondo la sua 
teoria, ogni punto della superficie emetteva raggi colorati in tutte 
le direzioni. L'elemento rivoluzionario di questo procedimento 
consisteva però nel fatto che per la prima volta era escluso il lato 
soggettivo della visione umana. L'oggetto appariva sulla parete o 
su uno schermo di fronte all'apertura del diaframma. 

L'occhio e la visione 

All'epoca di Alhazen, e anche in seguito, le teorie ottiche si 
fondavano sull'assunto che la visione avvenisse per opera di raggi 
visivi emessi dall'occhio: questi raggi, un po' come un moderno 
radar, avrebbero effettuato una sorta di perlustrazione, o dì lettura, 



102 LE SCIENZE 



443 /luglio 2005 




[J i 



iuiu&ua&tmri'Mut ftQ 
[. i -ni rissatemi cr nef^r 
!t.«n.^juvtanum j*£Ìj 
i. itmiaei binfbtcw tu 

ietti mi™ tianlT.iUjini js^ìS^Sxi 
rttouimTutrtUiuiiieatu ■v-^ -rrf ffj^; 
£tostvtt.nmst «attuai». -±»-*i\?SEKr" 

nitìUro- 




#f£è 




I > ngCTJentf-TOìttrf.imna.ttiratig^M»' - ■» - iV- v'Jl'CSJil* 
r&.i (fc JccMtì .(KrÀirtt W .lluf itnW'tS* ZfL&? "^ 
mt- Btlanf .fouwif btfancwrm ttiìnifttóni 
* forni vwt. * 

■aiittt-tist.ìjpttf.^c»',^. ttx.\r 
: I tauIcftTttttlrf- Acf Mllìt;' !.. 
a:tSu'T..1 t }iu ty.t C ihitmOn.»rtntó»cft 

< notici ti ■ tv- Èinrt.^ib UKcjlcf. Jt 

,|mù «jlif Jk inCJUhj fi.uit.{[tnrftir.^!i 

CCf-tw i eAtni-VKiiiiiriì.-frò:- 1 Iibiku im\ 

evi «I^to . Aitun litó.Mftin tVimatil ffii 

£ifcum ihum««.frtti 7 (unirti . tenditi'» 




I FONDAMENTI DELL'OTTICA MODERNA. A fronte, l'incisione sul frontespizio 
dell'edizione latina a stampa del trattato di ottica di Alhazen [Optìcae 
thesaurus, Basilea, 1572], Sopra, una pagina di un manoscritto di 
Hunayn ibn Ishaq, medico e ottico del IX secolo. Sotto, un affresco 
della Galleria degli Uffizi che raffigura i leggendari specchi ustori usati 
da Archimede contro le navi romane durante l'assedio di Siracusa. 



essere riflessi con lo stesso angolo rispetto alla perpendicolare. 
Nelle sue prime opere Alhazen era ancora legato alla teoria dei 
raggi emananti dall'occhio. Successivamente però eliminò del 
tutto l'idea di un ruolo attivo dell'occhio, dichiarando assurda 
l'idea che bastasse aprire le palpebre per permettere ai raggi emessi 
dai nostri occhi di arrivare istantaneamente fino alle stelle. 

Pur fondandosi sull'esatta descrizione anatomica dell'occhio 
fornita da Galeno, Alhazen non accettò la modificazione da lui 
introdotta del concetto di raggio visivo. I nervi che vanno dal 
cervello all'occhio contengono nel loro centro dei vasi, i vasa 
centralia retìnae, che Galeno interpretò in modo ovvio ma errato, 
come condotti cavi; al loro intemo scendeva verso l'occhio 
uno pneuma aeriforme, uno spirito che, attraverso l'occhio, si 
diffondeva nell'aria confinante, trasformandola in un certo senso 
nell'organo della vista. Hunayn ibn Ishaq, che era anche oculista, 
nei suoi Dieci trattati sull'occhio paragona l'aria cosi innervata a 
un bastone con cui un uomo che cammini al buio tasta il terreno 
su cui si muove. 

Altri dotti, meno versati nella matematica e più interessati 
alla filosofia aristotelica della natura, come il contemporaneo 
persiano di Alhazen, Avicenna, pensavano più correttamente 
che qualcosa andasse dall'oggetto all'occhio. Essi ritenevano che 
l'intera forma dell'oggetto visto fosse presente come chiazza di 
colore nel mezzo diafano dell'aria e che da li passasse nell'occhio. 
Non era più necessario un raggio visivo che uscisse dall'occhio. 
Diventava però diffìcile conciliare le leggi della riflessione e della 
rifrazione con la chiazza di colore. I raggi lineari di Alhazen che 
si irradiavano da ogni punto dell'oggetto non avevano questo 
svantaggio. 




dell'ambiente. Il già citato Qusta ibn Luqa spiegò addirittura la 
diffusione per contagio delia congiuntivite, molto diffusa in 
Oriente, con l'aiuto della teoria dell'emissione dei raggi da parte 
dell'occhio: partendo da un occhio sano, i raggi potevano entrare 
in contatto con un occhio malato. I matematici greci avevano 
ottenuto risultati soddisfacenti con la teoria dell'emissione. 
La riflessione su uno specchio sì poteva spiegare abbastanza 
bene anche con questa teoria, secondo la quale, anziché i raggi 
incidenti emessi dall'oggetto, erano i raggi emessi dall'occhio a 



Ma come facevano a formare un'immagine esatta nell'occhio? 
Benché Alhazen, nella sua stanza buia, si fosse già trovato di 
fatto in una sorta di camera oscura, sarebbero trascorsi circa 600 
anni prima che Keplero, seguendo le intuizioni dello scienziato 
islamico, capisse che anche il nostro occhio è una sorta di camera 
oscura, in cui i raggi degli oggetti, che trovano nell'iride una 
sorta di diaframma, proiettano la loro immagine sullo schermo 
della retina. Alhazen ritenne che la parte sensibile dell'occhio 
fosse il corpo del cristallino, e si trovò in tal modo alle prese col 



www.lescienie.it 



LE SCIENZE 103 



complicato problema del perché non vediamo le cose capovolte, 
benché la loro immagine sulla retina lo sia. 

Ma come farebbero i raggi a generare un'immagine esatta 
nell'occhio? L'occhio veniva colpito da un fascio, o piuttosto da 
uno stretto cono di raggi, il cui vertice si trovava sull'oggetto e 
la cui superficie di base confinava con l'occhio. Innumerevoli 
coni entravano nell'occhio da tutti i punti, intersecandosi fra 
loro. Quella linea retta che da ogni punto dell'oggetto andava a 
cadere in modo esattamente perpendicolare sul punto del globo 
oculare immediatamente di fronte a esso doveva essere elimina- 
ta. Alhazen riuscì a fornirne una spiegazione solo servendosi di 
un'analogia grossolanamente meccanica, che però fa onore alla 
sua sagacia: un proiettile dotato dì una scarsa forza di penetrazio- 
ne attraversa una lamiera sottile solo se la colpisce esattamente 
ad angolo retto, mentre in ogni altro caso viene respinto. 

Inizi di astrofisica 

Le ricerche di Alhazen sui raggi di luce si rivelarono feconde 
anche per risolvere alcuni problemi astronomici. Egli scoprì che 
le leggi della rifrazione valgono anche per l'aria che avvolge la 
Terra. Calcolò l'altezza dell'atmosfera e stabilì che doveva essere 
di circa dieci chilometri (era infatti convìnto che finisse brusca- 
mente, anziché diradarsi un po' alla volta). Così riuscì a spiegare 
per esempio perché il Sole continuasse a restare visibile sopra 
l'orizzonte anche quando doveva essere già tramontato. 

Alhazen si cimentò anche con uti problema che mette tuttora 
in difficoltà gli esperti: la cosiddetta illusione della Luna, Quando 
la Luna piena è appena sopra l'orizzonte ci appare particolar- 
mente grande, mentre quando è alta in cielo la vediamo molto 
più piccola. Ma non si poteva certo pensare che la sua grandez- 
za variasse nel corso del suo viaggio diurno intorno alla Terra. 
Alhazen spiegò in parte questo fenomeno con una rifrazione 
sulla sfera di vapori che avvolge la Terra. Si avvicinò però anche 
alla soluzione corretta: un'illusione ottica. Come oggi sappiamo, 
la proiezione della Luna sulla nostra retina ha sempre la stessa 
grandezza, indipendentemente dalla sua altezza nel cielo. 

Nel trattato Sulla luce delie stelle Alhazen espresse l'opi- 
nione che tutti i pianeti avessero luce propria, con l'eccezione 
della Luna (che allora, come il Sole, era annoverata fra i pia- 
neti). Determinò correttamente la luce della Luna come «presa 
a prestito». Confutò l'opinione comune che le macchie visibili 
sul satellite fossero immagini riflesse dei mari terrestri; eppure 
Alexander von Humboldt ebbe modo di ascoltare quest'opinione 
per bocca di persiani colti ancora nell'Ottocento,.. D'altro canto, 
Alhazen non credeva che sulle macchie della Luna avessero un 
ruolo le irregolarità della sua superfìcie, ma pensava piuttosto che 
il satellite avesse una superficie liscia formata da materiali diversi 
che riflettevano diversamente la luce solare. 

La natura materiale dei corpi celesti, d'altra parte, è rimasta 
un enigma per la scienza fino all'Ottocento avanzato. Scienziati 
importanti come Friedrich Wilhelm Bessel e Cari Friedrich Gauss 
erano ancora alla pura astronomia di posizione: si occupavano 
del calcolo dei moti celesti e rifiutavano qualsiasi affermazione 
sulla natura fisica degli astri. 

Aristotele, dal canto suo, aveva abbozzato un audace sistema 
di sfere cave semitrasparenti che ruotavano l'una all'interno 

104 LE SCIENZE 




WIU/IS "-"• IM8 l fi STI DIEJ) [III. Ut IR ACTION Ol 

III. Ili ANI) DIMMI II IMI INCIELI UlEOm Min 

VISI M 11 IV- IMASMI!) IKOM llll IVI 

lil|| n. « 



LA LUCE DEL COSMO. 

Nel 1936, la Bausch & Lomb scelse 

gli studi di Alhazen sulla rifrazione 

della luce come soggetta di uno 

dei suoi manifesti pubblicitari 

per gli occhiali commissionati 

all'artista americano Harold 

Anderson. A destra, la visione 

del mondo di Alhazen interpretata 

nel XV secolo da John Tolhoff 

nel suo De moiìbus celestium 

movìlium. 



dell'altra. Queste trasportavano i corpi luminosi dei pianeti, 
compresi il Sole e la Luna, mentre le stelle fìsse erano trasportate 
da un'ottava sfera, esterna alle sfere planetarie. Le sfere erano 
a stretto contatto fra loro, come gli strati di una cipolla, poiché 
secondo la dottrina di Aristotele in natura non era permesso il 
vuoto. 

Mezzo millennio più tardi, Tolomeo aveva introdotto nel 
suo trattato fondamentale, VAlmagesto, un sistema molto 
più complicato. Con questo sistema si padroneggiarono 
definitivamente in astronomia le caratteristiche traiettorie 
complesse dei pianeti, quali appaiono dal punto di vista della 
Terra, considerata allora immobile al centro dell'universo. Si 
ottenne questo risultato attraverso un'intelligente combinazione 
di moti circolari: alla periferia di un cerchio maggiore che non 
trasportava alcun corpo celeste (il deferente) era montato un 
cerchio più piccolo (l'epiciclo) che trasportava il pianeta, sempre 
che questo non svolgesse a sua volta la funzione di ulteriore 
cerchio portante per un epiciclo ancora minore. 

Ma la velocità dei pianeti lungo le loro reali orbite ellittiche 

- determinate come tali solo a partire dal tempo di Keplero 

- non è costante. Perciò, per conservare una regolarità consona 
alla natura delle sfere celesti, si dovette fare ricorso a un altro 
artificio. 



L'AUTORE 



GOTTHARD STROHMAIER inse- 
gna storia della scienza come 
professore onorario al Seminar 
furSemrtistiku nd Arabistik del- 
la Libera Università di Berlino, 
occupandosi in particolare del- 
l'opera degli scienziati musul- 
mani e della loro influenza sul 
Medioevo europeo. 



I 
1 

! 

E 
S 




Da qualche parte, in prossimità del centro di un cerchio, fu 
situato un punto immaginario, il punctum aequans, o equante, a 
partire dal quale apparisse uniforme almeno la velocità angolare 
dei pianeti. 

L'antagonismo fra filosofia e teologia 

Si narra che nel XIII secolo in Spagna, quando un astronomo 
tentò di spiegare al re Alfonso X di Castiglia detto el Sabio (il 
sapiente) - cui va riconosciuto un grande merito nell'introduzione 
della scienza araba in Occidente - l'intero complesso meccanismo 
tolemaico dei cieli, il monarca avrebbe commentato che tutto 
sarebbe stato molto più semplice se l'Onnipotente, prima di creare 
il mondo, si fosse rivolto a lui per un consiglio. In effetti la realtà 
era più semplice di quanto sembrava, e la nuova immagine del 
mondo del Seicento sarebbe scaturita dalla sintesi delle teorie di 
Copernico, Keplero e Newton, 

Alhazen, come molti suoi colleghi della Spagna moresca, si 
sforzò di realizzare una sintesi tra Tolomeo e Aristotele. La dif- 
ficoltà stava nel fatto che si potevano concepire i cerchi che 
si intersecavano solo come costruzioni cinematiche puramente 
matematiche e non come realtà fisiche, come era stato possibile in 
passato nel più primitivo modello di Aristotele a buccia di cipolla. 
Tolomeo, neWAÌmagesto, si era ancora accontentato di una pura 
astronomia di posizione, ma successivamente, nelle Hypotheses 
ptanetarum (le Ipotesi dei pianeti), anch'esse tradotte in arabo, 
tentò di dare all'intero sistema una forma materiale, compito che 
non potè però assolvere senza lasciare spazi vuoti. 

I filosofi musulmani abbozzarono con altri mezzi un sistema 
a loro giudìzio più naturale, tornando alle sfere cave solide di 
Aristotele, che si succedevano l'uria all'altra senza lasciare spazi 
vuoti. Ma anche questo tentativo era destinato a fallire. Esso non 
spiegava, per esempio, come la Luna, nella sua congiunzione col 
Sole, potesse essere a volte più vicina a esso, altre volte più lontana. 
Eppure questo è evidente nelle eclissi di Sole, che a seconda del 
diametro apparente della Luna possono essere anulari o totali. 

Questo dilemma sembrava offrire ai credenti ti diritto, in 
generale considerato invece come un atto di arroganza, di 
penetrare nei segreti del mondo al di là della Luna. NelI'VIlI secolo 
si era espresso in questo senso Giovanni Damasceno, l'ultimo 
dogmatico importante della Chiesa d'Oriente, e la stessa linea 
fu seguita da teologi islamici come l'influente Ibn Qayyim al- 
Jawziyya, che predicò a Damasco nel XIV secolo. D'altro canto, 
però, tanto ai cristiani quanto ai musulmani - diversamente dai 
greci pagani - era chiaro che gli astri erano solo creazioni divine 
prive di anima. Perché dunque non si doveva tentare di capirne 
i meccanismi? 

In questo senso Alhazen, in uno scritto Sulla costruitone del 
mondo, tentò di costruire un modello tolemaico inteso come una 
realtà fìsica e senza lasciare spazi vuoti al suo interno. Ne risultò 
una struttura estremamente complessa con movimenti privi di 
intersezioni, all'interno dì una sorta di tubi di forma anulare. 
Questa teoria sarebbe risultata insoddisfacente nella cornice del 
geocentrismo, ma - tradotta in latino intorno al 11 40 da Ermanno 
dì Carinzìa - contribuì a ispirare quell'insoddisfazione creativa 
che avrebbe infine condotto, in Occidente, alla nuova immagine 
eliocentrica del mondo. 



LE SCIENZE 10S 



Il contesto sociale 

Lo scritto di Alhazen ebbe una certa diffusione anche nei paesi 
musulmani, forse grazie al fatto che non vi si faceva uso di calcoli 
matematici. Tuttavia non era certamente accessibile a tutti. A 
Baghdad, all'inizio del Xin secolo, ci fu un rogo pubblico di libri. 
Uno zelante fautore dell'ortodossia leggeva alla folla una quan- 
tità di cose esecrabili, fra cui una preghiera al pianeta Saturno, 
e poi gettava sul rogo con un gesto teatrale l'opera immonda. 
Quando venne il turno della Costruzione de! mondo di Alhazen, il 
custode dell'ortodossia mostrò un'illustrazione delle sfere celesti 
e declamò: «Questa è la grande sventura, e il destino spietato eia 
cieca fatalità!». E il libro finì sul rogo. 

Le scienze esatte non godevano allora della stessa con- 
siderazione di cui sono oggetto oggi. Circondate dal sospetto, 
avevano una posizione marginale, e il loro sviluppo ebbe 
comunque nuovo impulso dopo che, con le loro traduzioni 
latine, quelle opere ebbero fatto il loro ingresso nella cultura 
della Scolastica occidentale. 

Nel risveglio della cultura borghese- urbana dell'Europa 
occidentale, le università, fondate da poco, offrivano buone 
opportunità di sviluppare tutti gli stimoli che venivano 
dall'Oriente arabo. Si esitava però ad abbandonare com- 
pletamente la teoria dei raggi emananti dall'occhio, giacché 
dal punto di vista matematico tale teoria forniva quasi gli stessi 
risultati di quella della luce che usciva dall'oggetto sostenuta da 
Alhazen. E non si doveva anche prendere atto che il famosissimo 
Canon medicinae, scritto in arabo da Avicenna, era su molti 
punti arretrato rispetto all'opera del maestro greco Galeno, da 
lui ingiustamente schernito? 

Fra gli Scolastici, colui che accettò nel modo più totale l'ottica 
di Alhazen sviluppandola nelle proprie opere fu il francescano 
Ruggero Bacone (circa 1 220- 1 292). Anche lui era però convinto, 
come la maggior parte dei suoi contemporanei, che si potessero 
unificare teorie che in realtà sì contraddicevano, e pensava 
che i raggi uscissero sia dall'oggetto sia dall'occhio. Il suo 
contemporaneo e confratello Giovanni Peckham riferì questa 
discussione nella Perspectìva communìs, obiettando che se i 
raggi uscissero dagli occhi gli animali potrebbero vedere anche 
di notte. Soltanto Keplero, portando alle estreme conseguenze 
le intuizioni di Alhazen, assegnò definitivamente all'occhio una 
funzione di pura ricezione. 

È quindi comprensibile che i pittori del Rinascimento italiano 
- che indagarono in modo più originale la realtà spaziale 
delle leggi della raffigurazione su tavole piane - non fossero 
più coerenti dei dottori delle università. 11 pittore, architetto e 
teorico dell'arte Leon Battista Alberti (1404-1472) spiegò che 
anche agli effetti pratici non era irrilevante se i raggi del cono 
di cui si doveva pensare il vertice nell'occhio, uscissero da esso 
o dall'oggetto veduto. 

Alhazen doveva essere in ogni caso ben presente nelle 
discussioni sul nuovo tipo di pittura, poiché i suoi scritti 
circolavano in traduzioni non solo latine ma anche italiane. 
Albrecht Durer, nei suoi viaggi in Italia, imparò molto dai suoi 
colleghi, e nei suoi scritti tedeschi ha dimostrato anche per 
immagini la sua perfetta padronanza della prospettiva {si veda 
l'illustrazione in alto nella pagina a fronte]. 



Occhiali e specchi ustori 



Le ricerche di Alhazen stimolarono conseguenze pratiche di 
grande portata anche in un altro settore. Lo scienziato islamico 
studiò in modo molto approfondito la lente ustoria, a cui dedicò, 
oltre a una sezione del suo grande trattato di ottica, anche uno 
speciale trattato. Egli vi esaminò la lente biconvessa sia come 
lente ustoria sia come lente d'ingrandimento. Alhazen può 
essere dunque considerato l'inventore delle lenti per lettura. 
Ma sembra che non abbia dimostrato alcun interesse per la 
commercializzazione della sua scoperta, anche se avrebbe forse 
potuto fruttargli più della copiatura di manoscritti. 

Il suo grande predecessore dell'antichità, Archimede (circa 
287-212 a.C.) avrebbe respinto come gretta ogni idea di un 
uso utilitaristico della matematica. La leggenda gli ha tuttavia 
attribuito la costruzione di mirabili macchine belliche e infine 
anche l'invenzione di specchi ustori capaci di appiccare il fuoco 
a grandi distanze. Grazie a tali specchi, durante la difesa della sua 
città di Siracusa, egli avrebbe incendiato navi da guerra romane 
a grande distanza fuori del porto. 

L'origine della leggenda può essere localizzata in una 
traduzione erronea del trattato di Galeno Sui misti. Galeno vi 
tratta di sostanze incendiarie che venivano catapultate sulle navi 
nemiche. Il traduttore Hunayn ibn Ishaq rese però il vocabolo greco 
pyreia come «specchi ustori», interpretazione che fu ripresa nella 
traduzione latina di Gherardo da Cremona. L'improbabile evento 
è presentato visivamente nell'incisione in antiporta dell'edizione 
latina a stampa dell'ottica di Alhazen, ma nel testo non si offre 
alcun dato a sostegno di questa idea. 

Il Medioevo europeo fu molto interessato allo sfruttamento 
pratico della scienza. Il teologo e filosofo naturale Ruggero 
Bacone, chiamato dai suoi contemporanei doctor mìrabilis, 
nell'Opus tertium concepì la possibilità dì navi senza rematori, di 
carri senza animali da tiro e addirittura di apparecchi in grado di 
volare ad ali battenti come gli uccelli. Nell'Opus maius del 1267 
menziona più prosaicamente, con riferimento ad Alhazen, vetri 
in forma di segmenti sferici che possono permettere o facilitare 
la lettura ai presbiti. 

Un artigiano sconosciuto riuscì poco dopo a preparare lenti più 
piane e più leggere che sì potevano mettere davanti agli occhi 
per facilitare la visione. 11 frate domenicano Giordano da Rivalto 
ricordò in una predica tenuta nel 1305 in Santa Maria Novella a 
Firenze un evento storico: «Non è ancora vent'anni che si trovò 
l'arte di fare gli occhiali che fanno vedere bene; che è una delle 
migliori arti e delle più necessarie che il mondo abbia, ed è così 
poco che si trovò: arte novella che mai non fu». Egli aggiunse poi 
di avere conosciuto l'uomo che li aveva inventati e costruiti per 
primo, e di essersi intrattenuto con luì. 

Gli occhiali divennero presto un oggetto d'uso così comune 
che nei quadri del Rinascimento possiamo vedere raffigurati 
anacronisticamente anche personaggi anziani della storia biblica 
che se ne servono per leggere . Nel convento di Wienhausen, in 
Bassa Sassonia, sotto le panche degli stalli del coro furono trovati 
nel 1953, oltre ad altre interessanti minuzie, degli occhiali con 
montatura in legno. Vi erano caduti, e nessuno aveva ritenuto 
che fosse il caso di alzare le tavole per ricuperarli. Dovevano 
quindi essere accessibili a prezzi abbastanza modesti. 




APPLICAZIONI 

CONCRETE. 

Sopra, una xilografìa 

di Albrecht Durer 

(1471-1528) dove si 

dà una dimostrazione 

dell'esatto disegno 

prospettico. Qui a 

fianco, apostolo che 

legge con l'aiuto di 

una lorgnette: questa 

tavola, appartenente 

a un trittico del 140 3 

di Konrad von Soest, 

nel duomo di Bad 

Wildungen, in Assia, 

mostra come fosse 

apprezzata l'invenzione 

degli occhiali alla fine 

del Medioevo. 



PER APPROFONDIRE 





^^ 




^| 




^ 




*8K? 


Wa 


k% jj&& 1 


j 


-iM 




lì 


i Mr 


^M mi 

mw 1° 



SABRA A.l. , Ibn al-Haytham, in Dictionary o/Scientific Biography, voi. 
Vl,p. 189. New York, 1972. 

RONCHI V., Storio della luce, Laterza, Bari, 1383. 

FRUGONI C, Medioevo sul naso: occhiali, bottoni e altre invenzioni 
medievali, Laterza, Bari, 2001. 

MARK SMITH A., Alhacen's Theory of Visual Perception, 2 Voli., 
American Philosophical Society, Philadelphia, 2001. 

IQBAL m., Islam and Science, Aldershot, Hampshire, 2002. 

DJEBBAR A., Stano della scienza araba, Raffaello Cortina Editore, 
2002, 

FEDERICI VESCOVINI G., Le teorie della luce e de/to visione ottica dal 
IX al XV secolo. Studi sulla prospettiva medievale e altri saggi, 
Mor lacchi Editore, Perugia, 2003. 



Questi ausili perla vista divennero uno degli oggetti di espor- 
tazione europei più comuni nei paesi islamici. Nell'introduzione 
al suo poema epico Absal e Salman, scritto in età avanzata, il 
poeta persiano Giami (1414-1492), morto nella città afghana di 
Herat, si duole che la sua vista sia diventata così debole che ormai 
non possono più aiutarlo nemmeno i «vetri franchi». E con questa 
espressione intende chiaramente gli occhiali, e non una lente di 
ingrandimento per la lettura, giacché, nella sua descrizione poe- 
tica, parla di «quattro occhi», e quindi di altri due oggetti circolari 
oltre ai suoi occhi. L'esportazione degli occhiali si spinse almeno 
fino all'Afghanistan musulmano, dove però non ebbe mai inizio 
una produzione locale. Gli occhiali furono invece prodotti più a 
est, in Cina e in Giappone. 

Il recupero della scienza islamica 

Col crescente squilìbrio economico fra la «terra dei franchi» e 
i paesi islamici è connesso anche il fatto che i successivi grandi 
progressi scientifici furono conseguiti a nord del Mediterraneo. 
Basti ricordare le opere di Keplero o il telescopio con cui Galileo, 
andando oltre Alhazen, accertò le fasi di Venere - la quale non 
era dunque dì per sé luminosa ma riceveva la propria luce dal 
Sole - e le irregolarità della superficie lunare. 

Ma le energìe puramente intellettuali erano presenti anche 
nella civiltà islamica, come mostra l'esempio di Alhazen. Nei 
paesi islamici, però, la tradizione iniziata dai dotti dediti alla 
sperimentazione si era interrotta, e furono i filologi europei 
dell'Ottocento - che non si limitarono a decifrare i geroglifi- 
ci egizi e a dare quindi un contributo all'orgoglio nazionale 
dell'Egitto, ma sì impegnarono anche, a partire dai manoscritti 
arabi ancora esistenti, a ricostruire il quadro dell'età aurea della 
cultura arabo-islamica - a fare in modo che ai suoi protagonisti 
fosse riconosciuto il giusto apprezzamento. Essi poterono infine 
anche accertare che l'Alhazen delle traduzioni latine doveva 
essere identificato con l'autore noto come Abu AH al-Hasan 
ibn al-Hasan ibn al-Haytham di cui parlavano ì biografi arabi 
medievali. 

Fra gli storici della scienza islamici contemporanei è purtroppo 
avvertibile una tendenza a spiegare i risultati ottenuti in passato 
dagli scienziati islamici come dovuti a un'ispirazione fornita dal 
Corano e dalla sharia (la Legge). Così il presidente del Center for 
Islam and Science canadese, Muzaffar Iqbal, ha recentemente 
spiegato che la rielaborazione da parte di Alhazen dell'opera dei 
suoi predecessori greci sarebbe stata una «pura rielaborazione 
islamica». 

Ma ascoltiamo che cos'ha da dire il Corano su un tema di 
ottica: «Non hai visto come distende l'ombra, ii tuo Signore? E 
se avesse voluto l'avrebbe fatta immobile. Invece facemmo del 
sole il suo riferimento; e poi la prendiamo [per ricondurla] a noi 
con facilità». Alhazen tuttavia, anziché preoccuparsi di trarre un 
senso razionale dai versetti della Sura xxv, 45-46 sgg., si riallaccia 
ai suoi predecessori greci, dopo essere stato tratto in inganno 
- come scrìve nella sua autobiografia - dalla molteplicità delle 
dottrine religiose e avere trovato la pace dell'anima nello studio 
delle opere di Aristotele. La sua opera scientifica ha a che fare 
con l'Islam né più né meno quanto quella di Euclide, Archimede, 
Tolomeo o Galeno ha a che fare col paganesimo greco. E 



106 LE SCIENZE 



443 /luglio 2005 



www.lescienze.it 



LESCIENZE 10?